Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Les dix technologies à prendre en compte en 2010

3 Décembre 2009 , Rédigé par Sandrine Publié dans #high tech

Les dix technologies à prendre en compte en 2010

Le Guide Informatique

LE TIERCE DE TETE DE GARTNER : CLOUD ET CLIENT COMPUTING, BI ANALYTIQUE, INFORMATIQUE POUR LE DEVELOPPEMENT DURABLE  Chaque année à l’automne Gartner classe les 10 premières priorités technologiques que les DSI auront à prendre en compte l’année à venir. Même si certains y voient un certain panurgisme technologique ou des influences marketing, l'exercice est intéressant pour tous les DSI soucieux de faire évoluer leurs systèmes.

Dominique Moisand, GuideInformatique
Pour 2010, la révolution vient des nuages avec un déferlement de possibilités pour les serveurs, les applications et les réseaux. Tout cela augure de très bons jours à la profession informatique et, peut-être des économies aux DSI qui sauront prendre le virage ! L'analyse est extraite de l'étude conduite chaque année, à l’automne, par Gartner. Et la comparaison des dix technologies à prendre en compte, entre 2009 et 2010, donne un éclairage intéressant à tous ceux qui cherchent des pistes de réflexions pour leurs investissements à venir.

Les 10 premières technologiques des DSI en 2010
Agrandir l'image
Source : Source : Gartner Symposium 2009 pour guideinformatique.com


On note tout d'abord que trois items ont été supprimés entre 2009 et 2010. Le fait qu’une technologie disparaisse de la liste peut signifier simplement qu’elle n’est plus prioritaire, soit que la question sous-jacente se soit déplacée, soit que l’innovation technologique marque une pause. La convergence des communications reste par exemple un enjeu stratégique mais sans connaître de changement majeur. Tout une série de solutions concourent à l’unification des communications (UC) entre les modes synchrone (chat, détection de présence, voix sur IP, vidéoconférence, reconnaissance vocale) et asynchrone (convergence des messageries : messagerie vocale, mèl, SMS et fax). C’est une tendance qui se développe à un rythme lent et ne justifie pas d’apparaître dans les dix premières préoccupations en 2010.

Les systèmes spéciaux répondent aux besoins de calcul spécifiques


Les fermes de serveurs (servers beyond blades) et les systèmes spéciaux recouvrent deux approches d’optimisation des moyens de calcul. Avec les systèmes spéciaux, on répond aux besoins nécessitant des moyens de calcul spécifiques (imagerie médicale, PABX, surveillance, centres d’appel, etc.) en configurant des systèmes optimisés en conséquence. Une autre solution consiste à aller chercher une puissance de calcul « beyond the blades » c’est à dire de loin supérieure à ce qu’offrent les serveurs individuels. On pense aux fermes de serveurs qui permettent de mutualiser un certain nombre de fonctions (alimentation, climatisation, réseaux, management) entre serveurs modulaires (sur une carte électronique, une blade). Toutes ces solutions se retrouvent dans l’item prioritaire 2010 qui vise à reconstruire le centre de calcul (reshapping the data centers). L’apparition des mémoires flash dans la liste 2010 est aussi une prolongation de cette évolution. Les mémoires flash présentent les caractéristiques idéales pour faire évoluer les offres de serveurs : faible consommation, vitesse équivalente à celles des mémoires vives, bref des vrais disques durs sans mouvements mécaniques.

La virtualisation est omniprésente


Placée en tête de liste en 2009, la virtualisation des serveurs, du stockage et des réseaux reste une tendance stratégique forte pour les centres de calcul. La virtualisation est aussi partie intégrante d’autres items stratégiques comme le cloud computing ou le client computing. Pourquoi cette tendance de fond ? Il est courant que le parc de serveur d’une entreprise ne soit utilisé qu’à 20% de ses capacités, le raisonnement s’applique à tous les investissements informatiques. L’équation économique fait apparaître des retours sur investissement rapides pour ceux qui mutualiseront l’utilisation des ressources. Le déploiement de systèmes de virtualisation est la condition nécessaire à la banalisation des ressources, préalable à leur mutualisation. Les attentes sont considérables : baisse de la consommation électrique, meilleure flexibilité face aux pointes ou aux creux de charge, sécurisation et reprise, transfert des dépenses d’investissement (CAPEX) vers les dépenses de fonctionnement (OPEX). Les grands fournisseurs mondiaux sur la toile (AMAZON, GOOGLE, MICROSOFT, EBAY, etc.) suivis par les constructeurs (IBM, HP) et les infogérants peaufinent leurs offres pour capter ce marché émergent qui couvre, avec la virtualisation, l’ensemble des centres de calcul des grandes entreprises.

Le cloud computing passe en tête de liste


Deux priorités 2009 viennent renforcer le Cloud Computing en 2010, à savoir, l’architecture orientée Web (Web Oriented Architecture ou WOA) et les applications composites (Enterprise Mashups). Parallèlement, l’offre se met en ordre de bataille. Le cloud computing atteint un seuil de maturité permettant d’offrir un environnement pour le grand public d’une part, pour les développements en entreprise, classiques ou orientés Web.

Plus d’intelligence dans le BI


L’expression Advanced Analytics remplace le traditionnel BI (business intelligence). Ce n’est pas neutre, il s’agit en quelque sorte de donner plus d’intelligence aux investigations sur les données. Le simple tableau de bord n’est plus suffisant. Trop complexe ou trop sommaire, il ne fait que proposer des données à l’analyse, charge aux destinataires de développer la curiosité nécessaire à la mise en évidence des tendances. L’emploi d’un nouveau concept est nécessaire afin d’éviter l’amalgame avec ce qui peut être considéré un peu comme la préhistoire de l’investigation des données. Il s’agit à présent de manipuler des quantités considérables de données pour repérer des comportements, des tendances (patterns). De nouvelles technologies viendront en appui pour la reconnaissance du sens ou l’appréciation qualitative.

Les réseaux sociaux


L’émergence des réseaux sociaux est une tendance de fond qui se retrouve en 2010 sous l’item Social Networking. Gartner estime que ses perspectives de développement s’étaleront au moins sur 5 ans. La confusion progressive qui s’ensuit entre sphère privée et sphère professionnelle pose avec acuité de nouvelles questions sur la sécurité, en particulier sur la protection des données.

La sécurité


Seconde préoccupation des DSI après la réduction des coûts, la sécurité devient durablement un sujet pour les développements des technologies de demain. Du Green IT à l’IT pour le Green Le Green IT a accéléré une tendance qui se retrouve dans la virtualisation et le cloud computing : optimiser les infrastructures pour réduire leur empreinte carbone. A présent, la responsabilité du DSI doit aller plus loin : comment utiliser la technologie pour réduite l’empreinte carbone de l’entreprise ? L’extension de cette approche du Green va avec la communication sur le sujet, la mise en place de système de management du développement durable, et, le plus souvent, une amélioration de la performance. Ainsi, une entreprise de transport qui peut géolocaliser ses camions et gérer leur capacité aura la possibilité de modifier leurs routes pour optimiser la prise en charge de fret au dernier moment. Economies et réduction des km parcourus vont de pair.

Les nouveaux items en 2010


Outre la reconfiguration des centres de calcul (reshapping data center) et mémoires flash, évoqués plus haut, on voit apparaître client computing et mobile application. Ces orientations concernent l’utilisateur final, aussi bien pour les matériels qu’il choisit que les applications (lesquelles ? où sont-elles sont hébergées ?). L’entreprise doit prendre en compte ces nouveaux points de contact avec ses clients, en particulier dans le développement des applications pour mobiles. Quels avantages peut tirer le DSI de tout cela ? Pour bénéficier des avantages de ces technologies, il faut investir ! Investir dans de nouvelles architectures, dans de nouvelles applications, bousculer son vieil ERP qui coûte cher en maintenance,…mais qui fonctionne, pour un SaaS qui n’a pas fait ses preuves, jeter les clés de son centre de calcul dans les nuages ! Certes les promesses de ROI sont alléchantes. Le DAF ne manquera pas d’être séduit par un allégement des CAPEX et les questions de disponibilité, de pointes de charge, de sites de secours seront réglées… La question est de savoir qui va empocher la mise dans le ROI attendu dans le déploiement de ces technologies. Les grands fournisseurs de puissance qui mutualisent au passage leurs infrastructures et en font un véritable revenu ? les grands infogérants qui engrangeront les économies (consommation électrique, investissement) sans forcément les répercuter sur leurs clients ? Au moment où les préoccupations de flexibilité et de mutualisation deviennent le leitmotiv, les contrats d’infogérance sur 3 à 5 ans font figure de dinosaures. L’évolution technologique devra s’accompagner d’un meilleur partage des bénéfices entre entreprises et fournisseurs.

Partager cet article

Repost 0
Pour être informé des derniers articles, inscrivez vous :

Commenter cet article