webleads-tracker

+33 1 34 30 80 30

Blog

Les nouveaux métiers du datacenter

Jusqu’à un passé récent, l’exploitant de datacenter était le plus souvent l’administrateur système et réseaux ou l’équipe d’administrateurs hébergeant ses équipements dans une salle blanche qui avait fini par grossir.

Une salle gérée sans vision exacte de ce qu’il s’y passait, de ce qui y était produit, sans la mémoire des gestes techniques  qui avaient été effectués. L’administrateur était simplement passé au fil des années de la gestion d’un serveur à celle d’une dizaine de baies, ou plus. Tout au plus un inventaire pas toujours à jour sur fichier Excel.

Pourtant, bien avant d’atteindre les 10 baies, la salle connaissait nombre d’incidents d’exploitation du fait même de l’absence de toute documentation, et donc de toute mémoire. (suite…)

Datacenter modulaire or not datacenter modulaire ? That is the question.

Laissons Schakespeare reposer tranquillement et venons-en aux faits.

Le recours à une solution modulaire, dans laquelle la mise en service du datacenter vient couvrir par des modules les besoins au fur et à mesure qu’ils se font jour, présente bien des avantages. Elle peut s’opposer à une solution classique de construction en dur, mais également en compléter l’utilité en créant un maillage territorial plus dense venant répondre à des contraintes techniques et réglementaire, comme dans le cas du déploiement de la 5G (un centre de données relai tous les 200 km à minima, 80 pour certains opérateurs). Une architecture en HUB devient alors logique, avec un traitement local dit « métier » de la donnée (IoT, applicatif) et un traitement distant, ou plus exactement un retraitement distant, des données (analyse, big data…) (suite…)

Souveraineté et disponibilité des données : comment chiffrer les risques ?

Tout est « data » c’est-à-dire « données numériques » aujourd’hui. C’est désormais bien clair, l’analogique a cédé le pas devant le numérique dans les médias, les communications, dans bien des domaines artistiques et en tout cas ceux liés à l’image et au son. Et si la question de savoir si les objets ont bien une âme n’a pas encore été tranchée, on sait que les objets se sont mis à produire eux aussi des données. Capteurs partout et à tout faire, pour l’avionique, l’automobile, les industries de transformation, la médecine, votre réfrigérateur, vos ampoules etc… produisent désormais des zettabytes de données. Excusez du peu ! (suite…)

The EDGE n’est pas que le guitariste de U2…

Un datacenter EDGE est un datacenter comme les autres

C’est la technologie « hype » du moment, et impossible d’y échapper si l’on s’intéresse si peu que cela soit au numérique : le EDGE est partout et de toutes les conversations. Et pour une fois, il n’est pas impossible que cela soit mérité : ce déport d’une partie des traitements IT en périphérie, et au plus près de la production de données elle-même, change vraiment radicalement certains business model. Propriété, déploiement, gestions des actifs, équilibre Opex/Capex, segmentation de marché sont autant de notions à revisiter sous l’impact de cette technologie. (suite…)

Refroidissement par huile ? Désormais, ça baigne

Jusqu’à il y a peu, le refroidissement par huile dans les datacenters ne concernait que les infrastructures de haute densité, dédiées au calcul intensif par exemple. Il est pourtant évident depuis toujours que la conductivité thermique d’un liquide est bien supérieure à celle de l’air, et que ce dernier n’est pas le fluide optimal pour récupérer et transférer de la chaleur.

Or les serveurs présents en grands nombres dans les datacenters produisent tous en masse un déchet : la chaleur. Le recours à un liquide semblait donc aller de soi, mais encore fallait-il que ce liquide présente toutes les caractéristiques requises pour être utile, et elles sont nombreuses. Nous ne pensons pas ici à l’eau qui peut être une source de dysfonctionnement à proximité des équipements IT.

(suite…)

Les nouveaux métiers du datacenter

Jusqu’à un passé récent, l’exploitant de datacenter était le plus souvent l’administrateur d’une salle blanche qui avait fini par grossir.

Une salle gérée sans vision exacte de ce qu’il s’y passait, de ce qui y était produit, sans la mémoire des gestes techniques y ayant été effectués. L’administrateur était simplement passé au fil des années de la gestion d’un serveur à celle de 24 baies, ou plus.

Mais bien avant d’atteindre les 24 baies, la salle connaissait bon nombre d’incidents d’exploitation du fait même de l’absence de toute documentation, et donc de toute mémoire.

(suite…)

En avoir ou pas ? Les PDU managés

Un débat agite notre petit Landernau, il concerne les PDU managés, ces « Power Distribution Units » qui permettent de déclencher à distance la mise hors alimentation des matériels et des équipements connectés.

Le débat souvent vif qui oppose les « pour » et les « contre » ne mérite sans doute pas la passion qu’y mettent les contradicteurs, ni ne justifie d’ailleurs les budgets communication qu’y investissent les équipementiers, encore que ce dernier point soit le moins assuré des deux.

(suite…)

Le RGPD : quelles conséquences dans les Datacenters ?

Le Règlement Général sur la Protection des Données – RGPD ou GDPR – encadrera à partir du 25 mai 2018 prochain la sécurisation des données personnelles dans un cadre totalement nouveau. Ce cadre règlementaire est une innovation majeure, et presque un changement de paradigme pour la France.

(suite…)

Les câbles sous-marins : talon d’Achille du réseau mondial ?

On a vu la presse s’interroger ses dernières semaines sur la possibilité d’une panne internet à l’échelle mondiale. Mais puisque la raison d’être d’internet est d’organiser les flux de communication sur un réseau de point à point, via un maillage et non plus sur une seule ligne il est peu réaliste d’imaginer un effondrement simultané de tous les points.

Moins médiatisé mais plus réel semble être le risque que nous font courir les câbles sous-marins, composante matérielle indispensable à nos réseaux modernes.

(suite…)

Homo Datacentrus ou l’humain au cœur des datacenters : importance stratégique ?

Si jongler avec trois balles n’est déjà pas à la portée de tout le monde, que dire des plus grands artistes qui présentent des numéros avec six et parfois sept objets, de tailles et de poids différents ? Et bien exploiter un datacenter s’apparente un peu à cet art, puisqu’il faut associer et faire fonctionner ensemble des compétences et des technologies très diverses. De l’ingénierie de conception à la construction et à l’équipement, il est crucial de ne commettre aucune erreur, car ces erreurs initiales se paient souvent fort cher, et tout au long du cycle de vie du datacenter. Pendant l’exploitation elle-même, il faudra orchestrer les prestations de génie électrique, de génie climatique, de connectivité et de réseau, de sécurité physique et de gestion des accès, de sécurité logicielle, de sécurité incendie, sans oublier toutes les activités de la maintenance, préventive ou corrective.… Un responsable d’exploitation, c’est un donc véritable chef d’orchestre au service de la continuité de la production IT qui lui est confiée, et qui comme le chef d’orchestre doit gérer l’ensemble des sous parties de l’orchestre en harmonie.

(suite…)