Verschillende intellectuelen, waaronder Yuval Noah Harari, maken zich grote zorgen over de onstuitbare opmars van kunstmatige intelligentie (AI). Er doemt een 'natuurlijke' rem op: AI-chips en AI-datacenters zijn stroom- en waterslurpers. Uiterst onduurzaam dus, al kan nou juist AI helpen net wat meer duurzame energie te produceren.
Eén commando als “licht aan” kost evenveel stroom als een lamp die een uur brandt
"AI-datacenters branden onze planeet op," zegt Atsuyoshi Koike, ceo van de Japanse chipfabrikant Rapidus, in het Financieele Dagblad. Koike was een van de deelnemers aan een congres van chipresearchcentrum Imec in Antwerpen. Hét gespreksonderwerp: de onverzadigbare elektriciteitsbehoefte van AI, een onderwerp dat in april werd geagendeerd door datacenter-expert Peter Judge.

Koike schat dat over 2 jaar AI-datacenters "meer dan 10% van de mondiale stroomproductie" nodig zullen hebben. Dat komt doordat de berekeningen die aan AI ten grondslag liggen, giga veel rekencapaciteit (chips) nodig hebben. Zo ligt bijvoorbeeld aan de 'slimme assistenten', zoals Alexa van Amazon, AI-rekencapaciteit ten grondslag. "Eén commando als “licht aan” kost evenveel stroom als een lamp die een uur brandt," zegt AI-specialist Steven Latrée van Imec. Er komen allerlei algoritmes aan te pas, die doorgerekend worden in de Amazonservers en datacenters, voordat de lamp echt aan gaat.

Trainen van het algoritme van GPT-3 kost ongeveer drie retourtjes met een Boeing 727 van San Francisco naar New York, schatte Judge. Opvolger GPT-4 kost naar schatting 1.000 keer zoveel energie. Datzelfde GPT-3 kostte aan ontwikkeling 3,5 miljoen liter water (nodig voor de koeling van de computers), berekende de Universiteit van Californië onlangs. Iedere ChatGPT-sessie kost gemiddeld een halve liter water.

Geen wonder dus, dat chipproducenten inzetten op nieuwe, energiezuinigere chips. En dat er kritisch gekeken wordt naar de locaties voor nieuwe AI-datacenters, die immers concurreren met de waterbehoefte van boeren en steden. Maar het grootste probleem is en blijft de stroombehoefte. "Datacenters zijn de laatste jaren wel veel zuiniger geworden," zegt Bernard van Gastel, onderzoeker digitale duurzaamheid aan de Radboud Universiteit in Nijmegen. Maar zo'n - realistische - schatting van 10% meer, daar valt niet tegenop te boksen met de energieproductie.

Er is een klein lichtpuntje. De energieproductie valt op te schroeven met AI. Dat is precies wat Alban Puech en Jesse Read van het Institut Polytechnique in Parijs deden. Zij ontwikkelden een algoritme dat windveranderingen voorspelt en windmolens daarop laat anticiperen. Een windmolen is het meest efficiënt als hij recht op de windstroom staat. Zo wisten ze de efficiëntie van windturbines met 0,3% te verhogen. Dat lijkt misschien niets, maar zou je het toepassen op alle windmolens ter wereld, levert het 5 terawattuur per jaar op. Dat komt overeen met de totale elektriciteitsproductie van Albanië, aldus NewScientist, ofwel het elektriciteitsverbruik van 1,7 miljoen Britse huishoudens. De mondiale elektriciteitsproductie kwam in 2022 uit op 27.815 Terawattuur, leert ons Our World in Data.