De tout temps, l’eau a été le moteur discret du progrès. Elle irrigue les champs et nourrit les récoltes, elle permet à l’industrie de produire des biens et de l’énergie, et elle est indispensable à la vie quotidienne des individus, des villages et des villes, pour boire, assurer l’hygiène et la santé publique. Les avancées technologiques ont permis d’exploiter des nappes plus profondes et d’atteindre des rivières plus lointaines, entraînant la multiplication des usages de l’eau et avec elle l’apparition de tensions fondamentales qui pèsent sur la ressource : comment l’eau est-elle valorisée, comment est-elle répartie, et qui en supporte le coût ?

L’intelligence artificielle (IA) (a) pourrait ajouter une nouvelle dimension à ces tensions anciennes. Les systèmes d’IA générative, tels que les grands modèles de langage, dépendent d’infrastructures d’informatique à distance (le cloud), qui reposent elles-mêmes sur des centres de données abritant des milliers de serveurs fonctionnant en continu. Aujourd’hui, ces installations représentent environ 1,5 % de la consommation mondiale d’électricité, avec une capacité concentrée pour l’essentiel dans un petit nombre de marchés. Mais sous l’effet de la croissance rapide de la demande et des investissements, la consommation électrique des centres de données pourrait plus que doubler d’ici 2030 (a), pour atteindre 945 térawattheures (TWh) — soit presque l’équivalent de la consommation annuelle du Japon.

Besoins en énergie, besoins en eau

Les centres de données ne sont pas seulement énergivores : ils sont aussi très gourmands en eau. Le calcul intensif génère d’énormes quantités de chaleur et, à l’instar du corps humain qui se refroidit en transpirant, les data centers utilisent l’évaporation de l’eau (a) pour éviter la surchauffe des serveurs. Souvent, il s’agit d’eau potable prélevée sur les mêmes sources d’approvisionnement que celles desservant les collectivités, les ménages et les entreprises. À cela s’ajoute une consommation d’eau indirecte, liée à la production de l’électricité nécessaire à leur fonctionnement — une composante qui peut représenter 80 % ou plus (a) de leur empreinte hydrique totale. Selon certaines estimations, la demande mondiale d’eau liée à l’IA (a) pourrait atteindre entre 4,2 et 6,6 milliards de mètres cubes dès 2027, soit quatre à six fois les prélèvements annuels d’eau du Danemark.

Il est extrêmement difficile d’avoir une vision précise de la consommation d’eau et d’électricité des centres de données, car les rapports sont lacunaires et les paramètres évoluent sans cesse au gré de l’adoption de l’IA et des gains d’efficacité. Ces projections n’en constituent pas moins un indicateur précieux des besoins qui se profilent à l’horizon.

Phénomène mondial, réalité locale

À l’échelle mondiale, la quantité d’eau utilisée par les centres de données reste modeste comparée à d’autres usages, notamment agricoles. Mais à l’échelle locale, la concentration de ces infrastructures peut entrer en concurrence avec d’autres besoins et susciter des inquiétudes quant à la disponibilité des ressources hydriques (a). Cet enjeu est particulièrement aigu dans les économies en développement désireuses d’investir dans l’infrastructure de l’IA.

Cette dynamique s’inscrit en effet dans un contexte où les déficits hydriques deviennent la norme. Au cours des deux dernières décennies, les réserves mondiales d’eau douce ont chuté (a) en moyenne de 324 milliards de mètres cubes par an, soit une perte équivalente au débit annuel cumulé des plus grands fleuves d’Europe occidentale. Une évolution particulièrement préoccupante dans les pays à faible revenu, où les épisodes de fortes pénuries de pluie et de sécheresses (a) ont augmenté de 233 % en un demi-siècle, grevant lourdement la croissance économique.

Trouver le bon équilibre

Plus d’un tiers des infrastructures de centres de données sont déjà implantées dans des régions confrontées à la pénurie d’eau, c’est-à-dire là où les prélèvements annuels nets dépassent les ressources disponibles (voir la barre orange sur la figure).

Ce constat est frappant, mais il n’est guère étonnant. Les entreprises sont peu incitées à intégrer le facteur eau dans leurs décisions. Nombre d’économies pauvres en eau comptent paradoxalement parmi celles où la consommation est la plus intensive, car cette ressource, pourtant inestimable, est notoirement sous-évaluée. Lorsqu’elle est fournie à bas prix, voire gratuitement, l’eau est utilisée sans retenue, donnant l’illusion de l’abondance même dans des régions arides. Cela contribue à expliquer pourquoi les choix d’implantation des centres de données privilégient des coûts facilement quantifiables — électricité bon marché, accès fiable au haut débit (a) — tout en négligeant l’eau et les services rendus par des écosystèmes comme les bassins versants, qui ne se prêtent pas à un exercice simple de chiffrage économique. Les gouvernements eux-mêmes se livrent à une concurrence active pour attirer ces infrastructures, avec force subventions et incitations fiscales, sans en mesurer souvent les conséquences à
long terme sur la sécurité hydrique locale.

Dans de tels contextes, l’arrivée d’une nouvelle concentration d’usagers industriels sur un territoire pourrait involontairement faire basculer l’équilibre hydrique local et conduire à reposer des questions anciennes : comment fixer le prix de l’eau, comment la protéger, comment la répartir ? Cette tension est particulièrement forte dans les économies dites « moyennement prêtes », où les infrastructures numériques se développent rapidement et où les capacités d’IA commencent à peine à émerger, alors même que la gouvernance de l’eau est faible et pourrait s’avérer incapable de répondre à de nouveaux besoins. Face à ces risques, les pays doivent faire en sorte que l’emplacement des infrastructures tienne compte des bassins versants et que la consommation d’eau à usage industriel soit rendue publique et fasse l’objet d’un suivi transparent. Il est également indispensable d’encourager l’innovation en matière de refroidissement (a), de recyclage et de réutilisation (a), et de mettre en place des incitations favorisant la sobriété tout en arbitrant entre les besoins de l’agriculture, de l’industrie et des populations.

Par ailleurs, et surtout, la technologie qui alimente cette nouvelle demande en eau recèle aussi un formidable potentiel pour mieux gérer la ressource (a). Les outils d’IA peuvent contribuer à détecter les fuites dans les réseaux urbains, optimiser les calendriers d’irrigation, anticiper les crues et les sécheresses (a), ou encore maximiser la réutilisation de l’eau. D’un point de vue économique, le bénéfice social marginal de ces applications pourrait dépasser le coût social marginal de l’eau consommée par l’IA. Mais pour que l’IA reste du « bon côté » du bilan hydrique, tout dépendra des décisions que nous prendrons.

Alors que le cloud monte en puissance dans un monde où l’eau est de plus en plus rare et disputée, il reste à savoir si ses promesses nous feront oublier l’importance de cette ressource ou si au contraire elles nous permettront de mieux la protéger. (Source : Banque Mondiale)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *