Trois nouvelles vagues technologiques impactent d’ores et déjà l’activité des datacenters en France et dans le monde : l’Internet des Objet (Internet of Thing, IoT), la nouvelle gestion de la mobilité avec l’émergence des voitures autonomes (des tramways, des bus, des navettes fluviales, des taxis, des métros, des camions, des… uh, just name it ! autonomes, donc), et l’Intelligence Artificielle.

Arrêtons-nous un peu sur cette dernière technologie, l’Intelligence Artificielle. De quoi s’agit-il en fait ? On parle sous ce terme de bien des choses, souvent fort éloignées les unes des autres. Ainsi en va-t-il des réseaux neuronaux convolutifs, de l’auto apprentissage des machines (machine learning), des algorithmes dédiés (à la banque ou au jeu de Go), des composants électroniques spécifiques à cette technologie. Au final, il n’est donc guère facile de définir ce qu’est l’intelligence artificielle : voyons-la comme une communauté qui vise à comprendre les processus de cognition humaine, et à les reproduire, ou à en créer de similaires.

La France et Paris sont d’ailleurs dans le peloton de tête pour accueillir les laboratoires de recherche en IA. Créé en 2015, celui de Facebook, le plus important au monde pour le réseau social, accueille déjà plus de 100 chercheurs et thésards et ne cesse de croitre. Microsoft collabore avec l’Institut national de recherche en informatique et en automatique depuis de nombreuses années. Et dans la foulée du rapport du mathématicien député Cédric Villani sur le sujet, Samsung, Fujitsu et la filiale de Google DeepMind ont tous annoncé la création de laboratoires, un des effets induits de l’excellence de l’école française de mathématique. Tant de domaines de l’activité humaine sont déjà concernés : la santé, les transports, l’industrie et les services, mais aussi l’agriculture ou la défense et la sécurité. Si tous les résultats ne sont pas encore à la hauteur des promesses entendues, il faut être prudent et penser à l’adage de la Silicon Valley : « We overestimate what can be done in three years and underestimate what can be done in 10. »

Comment ces technologies, présentes et non plus émergentes, modifient-elles le paysage et l’activité des datacenters ? J’avancerais trois éléments de réponses, non exhaustifs.

D’abord, et c’est l’évidence, ces technologies sont « data-centrées » : elles n’existent qu’en traitant un flux de données sans cesse accru. Freinons là encore pour prendre quelques mesures : le volume des données mondiales double tous les 3 ans, 90% des données mondiales ont été créées au cours des 2 dernières années, en 2020 chaque personne produira 1,7 megabyte de données par… seconde ! Le premier impact d’une telle avalanche est donc un test grandeur réelle de la capacité des infrastructures à absorber, voire à résister, à ce tsunami. Il y va de la scalabilité de nos activités, de leur capacité à se mettre – sur un rythme en constante accélération – à l’échelle des besoins.

Pour cela – et c’est le deuxième impact – ces technologies changent le paysage même de l’activité et du marché des datacenters, en créant de nouveaux acteurs dans un nouveau maillage plus dense.

Le sommet de la chaine de valeur reste occupé par les datacenters dédiés au Cloud, aux services internet, au stockage et au calcul. Leur taille moyenne est en constante augmentation avec l’apparition explicite de l’échelon « hyperscale ». Ces acteurs se comptent de par le monde en centaines d’unités. Sous cet étage se trouve celui des infrastructures dédiées Telecom, mobile et fixe, et délivrant du contenu. L’unité de compte devient alors le millier.

L’évolution récente, c’est l’apparition de l’étage « Edge », le « bord », la périphérie, qui gère le proche et le local. Ces infras là, souvent plus modestes en taille, vont traiter le « on-premise », la gestion et l’analyse de la donnée en proximité (caching, buffering, analitycs). Mais l’unité de compte est le million ! et bien des géants de l’IT ou de l’équipement en font le fer de lance de leur croissance actuelle et future, ainsi HPE et Vertiv, pour ne citer qu’eux.

Enfin, il y a la zone encore assez floue et en mutation constante qui est celle de la gestion en local des objets connectés. On parle là de gérer et produire de la valeur avec les 200 milliards d’objets qui seront connectés en 2020 ! Sans plus parler de datacenter, il faudra bien des modules de traitement de données produites, au plus près et le plus souvent en temps réel.

Le Edge, comme le traitement en local des données produites ou collectées par les objets, sont deux niveaux d’activité nouveaux, et résultants directs de nos 3 technologies. L’évolution s’est faite très rapidement, et ce n’est rien moins que la fin annoncée du « datacenter-à-tout-faire ».

Pour terminer, je voudrai insister sur un impact moins attendu de ces technologies sur les datacenters. Par une sorte d’effet miroir, deux de ces technologies – l’Internet des Objets, et l’Intelligence Artificielle – sont venues non seulement dans le datacenter, mais s’appliquer pour le datacenter. Deux brefs exemples ci-après.

L’Internet des Objets me permettait il y a peu de coordonner et livrer un prototype de Réalité Augmentée pour l’aide à l’exploitation des datacenters de la Société Générale, lors de leur TechWeek interne. L’horizon est simple : faire sortir des informations agrégées au sein des DCIM pour les rendre disponibles à tout instant aux personnels intervenant en salle, et donc fiabiliser les gestes techniques réalisés par l’apport en temps réel des informations pertinentes. Plus encore, cet outil pourra satisfaire aux besoins du responsable d’exploitation, mais aussi à ceux du DSI et du RSSI, en passant selon les profils utilisateurs des informations hardware au software et aux couches réseaux.

L’Intelligence Artificielle quant à elle est déjà en déploiement au sein des datacenters, pour faciliter améliorer leur exploitation. Ce sont les grands producteurs de puces qui ont lancé la démarche avec la création de puces dédiées. La rumeur fait ainsi état en ce moment du lancement prochain de Huawei dans le secteur de la puce pour datacenter, ce qui le met en concurrence directe avec NVIDIA, AMD ou encore Intel. Tous ces fondeurs ont récemment sorti du matériel boosté pour l’IA ciblant les centres de données. L’enjeu est celui de la nécessaire modernisation pour continuer à supporter les impératifs du cloud hybride, et de la collaboration avec le Edge : pour cela il faudra sans doute rien de moins que le datacenter autonome. L’IA dans le Datacenter, c’est déjà hic et nunc, c’est par exemple l’un des axes fort de développement que poursuit HPE avec sa suite InfoSight. Et c’est bien sûr un poste majeur des énormes investissements en R&D chez Google.

Restent à mon sens à régler les questions d’éthique – qui gardera les gardiens ? – mais ce sujet là semble hélas moins mature que nos 3 technologies, à date. A suivre, donc !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *