Vers une transformation en profondeur de nos data centers

Les annonces de Choose France et plus globalement, tout ce que l’on peut lire dans la presse en matière d’investissements numériques a de quoi donner le tournis ! Quatre milliards par-ci, deux milliards par-là, encore cinq cents millions ici. Les chiffres semblent ne plus avoir de limites pour numériser notre vie et notre économie. Mais que se cache réellement derrière tous ces zéros ? Quelle évolution technologique se dessine face à ces investissements massifs ?

En quelques années, nous avons vu les investissements bondir dans le secteur des data centers, et il semblerait que la tendance ne soit pas à l’inflexion de la courbe. Face à l’augmentation exponentielle de la production, du transfert, du stockage et du traitement des données, on ne cesse de bâtir de nouvelles forteresses numériques, toujours plus grandes, plus denses, plus sécurisées et plus novatrices afin d’en limiter les impacts environnementaux.

Qu’il s’agisse des géants du numérique, des grands groupes, des banques, du secteur de la santé, des médias, des télécommunications, de l’administration, de la recherche ou des start-ups… les besoins en puissance de calcul croissent de manière vertigineuse, rendant nos data centers « traditionnels » inadaptés.

Un peu de technique

En effet, jusqu’ici les densités de puissance par mètre carré nécessaires à l’hébergement de serveurs traditionnels permettaient, en tous cas en France, un refroidissement 100% à air. Plusieurs évolutions technologiques ont d’ailleurs permis d’améliorer de manière significative l’efficacité énergétique des data centers : le confinement des racks en allées froides / allées chaudes ou encore la mise en place du free-cooling pour bénéficier des températures extérieures modérées à des fins de refroidissement à moindre coût une bonne partie de l’année. Il faut aussi noter l’évolution des serveurs eux-mêmes qui sont capables de fonctionner à des régimes de température plus élevés qu’auparavant, et donc de limiter les besoins en froid.

Mais l’Intelligence Artificielle par exemple, plus gourmande en énergie, nécessite d’autres technologies de refroidissement au vu des densités de puissance qui sont exercées dans les salles. On parle notamment de DLC pour Direct Liquid Cooling. Cette technologie permet de refroidir les serveurs à cœur, via un circuit hydraulique qui passe directement à proximité des organes vitaux des machines comme les GPU. Cette technologie possède l’avantage de mieux évacuer la chaleur produite que le refroidissement par air. Le fameux PUE (Power Usage Effectiveness), indicateur par excellence de l’efficacité énergétique des data centers s’en réjouit.

La tendance

En parallèle des investissements colossaux pour la construction de nouveaux data centers dont certains dédiés à l’IA, le parc actuel commence sa mutation, et de nombreux acteurs commencent à transformer une partie de leurs salles existantes pour devenir « DLC ready ». La forte demande associée au peu de foncier disponible pousse les acteurs du marché à adapter leurs architectures techniques pour accueillir ces nouveaux types de serveurs.

Avec l’ensemble de ses experts, Artelia accompagne ses clients depuis plus de vingt ans dans la conception et la réalisation de leurs data centers. Nous poursuivons cette dynamique en accompagnant cette mutation avec une vision 360 : faisabilité, définition du besoin, programmation, conception technique, décarbonation, efficacité énergétique, certification environnementale, réutilisation de la chaleur fatale, acceptabilité, maîtrise du planning, maîtrise budgétaire, suivi du chantier. En AMO comme en maîtrise d’œuvre, la complétude de nos savoir-faire nous positionne comme un acteur de premier plan dans ce secteur pointu, exigeant, en perpétuel évolution et particulièrement passionnant.

Prêt à relever le défi !