Au bout de chaque rue, un data center ?
On entend beaucoup parler des énormes data centers – « centres de données » en bon vieux français – à l’autre bout du monde. Mais savez-vous qu’il y en a également à Grenoble ? Que des données sensibles peuvent y être hébergées, comme les données génomiques de milliers de personnes ? Petit voyage dans la cuvette pour tenter de percer les mystères de ces énormes grilles-pains sécurisés indispensables au bon fonctionnement du monde virtuel.
Dans le quartier de la mutualité, on se souvient vaguement que le 33 rue Joseph Chanrion était jadis une supérette du groupe grenoblois Genty-Cathiard et que les locaux furent occupés par une compagnie de télécommunications. Aujourd’hui toutes ces vitrines sont devenues opaques. Ce grand espace au rez-de-chaussée, entre la crèche Marie Curie et la montée des locaux de la Ligue de l’enseignement, est un data center de l’entreprise Cogent Communications, ce qui n’est indiqué que sur le petit panneau d’une porte très discrète à côté de l’entrée de la crèche. Pas d’accueil, juste un interphone qui met en relation avec le centre d’opérations de Cogent à Paris et un lecteur de cartes d’identification surveillés par une caméra.
Ce tronçon de la rue Joseph Chanrion est un des versants extérieurs des barres du quartier de la Mutualité, construit dans les années 70 selon les principes de « la ville fonctionnelle », une fois rasé l’ancien faubourg Très-Cloîtres. Malgré la présence de la crèche, d’un centre de vaccination, de la MJC Mutualité-préfecture et d’une paroisse, les 50 mètres de vitrines clôturées qui renferment ce data center de 450 m2 donnent à la rue un je-ne-sais-quoi de zone désaffectée. Si vous ajoutez à cela le bruit et la chaleur…
En 2018, les premières plaintes arrivent au syndic du 33 rue Joseph Chanrion. Le bruit et la chaleur qui se dégagent des locaux de Cogent commencent à déranger, surtout pendant l’été. Les machines à l’intérieur des data centers tournent 24 heures sur 24 tous les jours de l’année. C’est d’ailleurs cela qui définit la fiabilité d’un data center : sa disponibilité, ou mieux, sa haute disponibilité. Elle se mesure en « neuves », parce qu’aucun data center n’a une disponibilité en dessous de 99 % du temps de l’année. Ceux du plus haut niveau sont à quatre neuves et demi (99,995%), c’est-à-dire qu’ils sont indisponibles, en moyenne, seulement 26,3 minutes à l’année. Le monde connecté ne permet pas les pauses.
La MJC, située juste en face, pâtit particulièrement de ces nuisances, au point d’être obligée de toujours travailler les fenêtres fermées, même en été. En 2020, le confinement permet aux autres voisins d’apprécier à sa juste valeur la « chance » qu’ils ont d’habiter à côté d’un data center. Le trafic arrêté et le beau temps de ce printemps-là font prendre conscience du ronronnement constant et de la chaleur dégagée par le bâtiment. Bien que le syndic soit en contact avec les bureaux de Cogent France à Paris, les choses n’évoluent pas. Sans personne à qui parler, les riverains n’ont plus qu’à subir en silence.
Cogent est une multinationale américaine créée en 1999 par un groupe d’investisseurs. Leur marché à haut potentiel lucratif ? Tout le câblage qu’allait nécessiter internet. Ils sont des installateurs de fibre optique et des points de connexion qui vont avec, qu’ils doublent de capacités de stockage et calcul. Bref, c’est un des plus grands opérateurs internet au monde.
Dans leur data center de Grenoble, il y a des serveurs et des grands routeurs : le lieu est aussi un des deux points d’échange internet de la métropole (voir encart). Des fonctions bien obscures pour le quidam, et notamment les riverains subissant les nuisances, qui butent sur les mystères de ces forteresses modernes. C’est que la transparence ne fait pas partie des habitudes du secteur : toutes nos tentatives d’interview sont restées vaines. Impossible, par exemple, de connaître la consommation électrique de ce bâtiment. Ce qu’on sait, c’est qu’elle est – comme celle de tous les data centers – considérable : pour refroidir ses installations, ces bâtiments pompent au moins la moitié de l’énergie consommée pour faire marcher l’équipement informatique.
Depuis le début de l’année, la situation s’est néanmoins améliorée. La persévérance des riverains, un article dans Le Daubé, l’intervention de la mairie et même d’une députée ont contraint la société à effectuer des travaux d’insonorisation conséquents fin 2021. La chaleur, néanmoins, persiste, permettant ainsi au quartier de vivre des canicules augmentées.
Alors pourquoi Cogent a installé un data center à Grenoble ? La haute disponibilité du réseau d’internet doit être accompagnée d’une réponse rapide, si rapide qu’elle se mesure en millisecondes. Malgré la vitesse à laquelle circule le signal par les différents types de câble, dont la fibre optique, la distance compte. Voilà pourquoi les entreprises cherchent des data centers proches et qu’ils se multiplient un peu partout. En 2020 il y avait, selon le site Global security mag, 215 data centers en France dont 29 en construction, la plupart en région parisienne. Cogent en a, pour sa part, seize.
On parle là juste des data centers dits « de mutualisation », ceux qui louent des serveurs ou des espaces pour mettre leurs propres serveurs. Eux sont répertoriés dans les pages à destination des entreprises ou des institutions à la recherche de plus grandes capacités de calcul et stockage. Par contre, impossible de savoir le nombre de data centers « privatifs », ceux des institutions publiques ou de trois grandes entreprises, dont celles de télécommunications. Leurs stratégies sont d’ailleurs divergentes. Orange annonçait en 2020 qu’elle allait concentrer ses dix data centers en trois grandes installations, tandis que Bouygues et et SFR voulaient passer d’à peine une dizaine à presque cent orientés vers la 5G.
À Grenoble nous avons par exemple un data center d’Atos à Échirolles, et un autre d’HP à Eybens. Pour les autres grandes institutions publiques ou privées, impossible de savoir où sont hébergées leurs données, quelle partie des données sont gérées en interne et quelle partie est externalisée sur des data centers mutualisés.
Outre celui de Cogent, on a trouvé la trace de trois autres data centers de « mutualisation » à Grenoble. Il y en a un énorme récemment arrivé dans les anciens locaux d’EDF rue Diderot, appelé Dc2scale. Un autre, à Seyssinet-Pariset, répondant au nom de Xsalto. Et puis, un dont on entend parler parce qu’il prétend être « écologique » : c’est celui d’Eolas, rue Général Mangin à Grenoble, baptisé « Green data center ».
Il héberge l’autre point d’échange internet de Grenoble (après celui de Cogent) et serait donc une installation « green » grâce à des panneaux solaires sur le toit et les façades et l’utilisation de l’eau pompée dans la nappe phréatique pour refroidir les machines. Ce qu’ils disent moins, c’est que l’eau chaude retourne ensuite à la nappe phréatique… Les études d’impact ont assurément trouvé que ce réchauffement de la nappe phréatique se trouvait dans les seuils prédéfinis comme « acceptables ».
Une promenade autour du bâtiment nous instruit aussi sur d’autres caractéristiques des data centers. A l’arrière trône un énorme groupe électrogène prévu pour les cas de coupures d’électricité. Pour pouvoir prétendre à la « haute disponibilité », il faut prévoir – « ceintures et bretelles » – une certaine redondance en matière énergivore, même pour les bâtiments « green ». Double alimentation en électricité, générateurs en cas de coupure totale, batteries, copies de sécurité des données en cas de problème mécanique ou de défaillance totale des serveurs principaux, des connexions et des routeurs en double. Autant de machines à faire tourner et à refroidir… Le « green » n’a pas peur du gaspillage.
L’autre chose qui frappe c’est le fil barbelé aux allures militaires qui entoure ses murs. La sécurité des installations est une préoccupation majeure : vu les contraintes de la « haute-disponibilité », il faut à tout prix éviter la moindre dégradation coupant le service chèrement facturé. Et puis surtout : il faut aussi éviter que n’importe qui ait accès aux serveurs, d’autant plus que certains des data centers s’efforcent d’obtenir des certificats pour héberger des données sensibles. On sait par exemple que chez Eolas, qui a obtenu la certification Hébergeur de Données de Santé, sont stockées les données générées par Auragen, une des deux premières plateformes de séquençage génomique du Plan France médecine génomique 2025 (PFMG25).
Ça passe un peu inaperçu mais, dans les pays riches, on est en train de séquencer du génome, l’ADN complet de plein de gens [1]. Le Royaume Uni a complété en 2018 le séquençage de 100 000 génomes, puis s’est lancé vers les 500 000. Les États-Unis ont commencé un programme qui vise 1 million de génomes séquencés. La Chine, le Japon, l’Arabie saoudite, la Turquie, tout le monde s’y est mis. Pour sa part, la France a commencé avec les deux plateformes pilotes du PFMG25 qui devraient séquencer 16 000 génomes par an chacune. Dix autres vont se rajouter à terme et augmenter la production à 220 000 génomes par an.
Tout cela demande des capacités de calcul et stockage assez faramineuses. Concrètement pour le programme dans lequel s’est embarquée la France, cela demanderai 60 pétabytes par an... Vous ne voyez pas ce que ça signifie ? Un pétabyte représente l’équivalent de 3,4 années d’enregistrement vidéo haute définition, 24 h sur 24 h. Un étude américaine de 2015, prédisait que, en 2025, les données générées par la génomique annuellement dépasseraient très largement celles de Youtube.
Les données génomiques deviendront à terme la partie submergée de l’énorme iceberg des données de santé, en pleine numérisation. Ces derniers mois, la sécu informe tout le monde de la création des « espaces numériques de santé », automatique sauf opposition personnelle, qui vont générer des tonnes de données hébergées par une entreprise privée, Atos.
Cette « dématérialisation » devra forcément passer par toute une infrastructure dont on ne parle jamais. Pour la santé, la numérisation des services publics, toutes les démarches obligatoires à faire maintenant par écran interposé, combien de nouveaux data centers, de nouveaux câbles et routeurs, de nouveaux processeurs ? Combien de millions de grille-pains dans les rues grenobloises et ailleurs ?
[(
Pourquoi les data centers réchauffent le monde ?
Chacun sait que le moindre petit ordinateur chauffe et fait un petit bruit, celui du ventilateur qui le refroidit. La chaleur qu’il faut ainsi dissiper provient principalement du processeur (dit aussi unité centrale de traitement ou CPU selon son sigle anglais), le cœur de tous les appareils informatiques. Et si ça chauffe c’est la faute aux transistors, ces composants électroniques qui offrent une certaine résistance au transfert d’électricité – d’où leur nom, contraction de l’anglais transfert resistor –, élaborés avec les fameux semi-conducteurs. A force de miniaturisation, aujourd’hui on parle plutôt de microprocesseurs, qui comptent 100 millions de transistors par millimètre carré. Chaque micro-transistor est le support physique de ces fameux 0 et 1 qui constituent le monde numérique, selon qu’ils laissent passer ou non l’électricité. Les microprocesseurs ont un gros point commun avec les grille-pains : toute l’électricité qu’ils reçoivent est transformée en chaleur. Ce qui les différencie, par contre, c’est les tombereaux d’eau et d’énergie qu’il faut pour les construire.
Les microprocesseurs sont omniprésent, dans les ordinateurs, les tablettes, les téléphones portables, les objets connectés... Et ils le sont évidemment dans ces serveurs qui remplissent les data centers. Un data center, c’est donc une concentration de milliers de grille-pains, d’où leur contribution au réchauffement général.
)]
[(
Serveurs et routeurs sont dans un center
Deux choses différentes sont souvent hébergées dans les data centers. Il y a, d’un côté, les serveurs, avec leurs processeurs qui traitent les données et leurs disques durs qui les stockent, qui nous « servent », en effet, ce qu’on leur demande depuis nos terminaux. De l’autre il y a les points d’échange internet, un endroit où sont concentrés plusieurs routeurs branchés entre eux. Les routeurs sont les machines sur lesquelles arrivent les différents câbles du réseau et qui envoient nos demandes par le bon chemin, sur d’autres routeurs puis sur d’autres câbles, jusqu’à ce qu’elles arrivent à l’ordinateur, très souvent un autre serveur d’un grand data center s’il s’agit, par exemple, d’une vidéo Youtube, où se trouve ce qu’on cherche. Les routeurs lisent comme une adresse postale les adresses IP de nos demandes et les envoient par le bon chemin pour ensuite rediriger vers notre adresse IP ce qu’on a demandé. D’ailleurs le réseau proprement dit, le câblage relié par les routeurs, les fameuses autoroutes de l’information, comptent à elles seules pour environ un tiers de la consommation totale d’électricité pompée par l’usage d’internet (les deux autres tiers reviennent aux serveurs et aux équipements individuels). On demande aux routeurs de traiter le plus grand volume possible de demandes le plus rapidement possible, ce qui implique des grandes capacités de calcul et donc, aussi, de très puissants micro-processeurs : les plus grands routeurs, ceux dit du cœur d’internet, ont une puissance de 11 KW.
)]
Notes
[1] Pour en savoir plus sur le le plan FMG25 voir Raúl Guillén « L’eldorado de la médecine sur mesure », Le Monde Diplomatique septembre 2021.