Waarom de toekomst van AI valt of staat met duurzame energie

De toekomst van kunstmatige intelligentie lijkt grenzeloos — maar de energie die het kost om deze toekomst te bouwen, is dat allesbehalve. Tijdens een paneldiscussie in San Francisco met onder meer Constantijn van Oranje, investeerders, chipdesigners en ondernemers werd één thema pijnlijk duidelijk: AI schaalt sneller dan ons energienet aankan.
AI-modellen worden niet alleen groter, maar ook slimmer. We bewegen van generatieve AI (die tekst en beeld produceert) naar redenerende modellen — systemen die beslissingen nemen, taken uitvoeren en uiteindelijk fysieke handelingen aansturen. Denk aan robots, zelfrijdende auto’s of chirurgische assistenten. Maar deze verschuiving vraagt om drie tot vijf keer meer rekenkracht dan de huidige foundation models.
En rekenkracht betekent energie. Veel energie.
Een schatting die tijdens het panel werd genoemd: als OpenAI zijn huidige groeipad doorzet, heeft het bedrijf in 2033 evenveel energie nodig als het land India. Dat is geen dystopische overdrijving — het is een reëel scenario als we blijven schalen op de manier waarop we nu werken.
De hardwarewereld voelt de druk. Zoals een van de sprekers het tefeend noemde: “De meeste energie gaat niet naar het rekenen zelf, maar naar het verplaatsen van data.” Daarom wordt gewerkt aan nieuwe architecturen waarin geheugen dichter bij de rekenkern wordt geplaatst, en aan optische interconnecties via fotonica om dataverkeer sneller en energiezuiniger te maken.
Ook aan de koelingskant vinden innovaties plaats: van vloeistofkoeling tot nieuwe materialen die warmte beter afvoeren. Toch is de consensus dat deze verbeteringen incrementeel zijn — en dat er iets fundamenteel anders moet gebeuren om de energievraag echt te doorbreken.
Fabrizio del Maffeo, CEO van Axelera AI schetste een ander beeld: niet de AI-bubbel, maar de energiebubbel zal barsten. In Taiwan bijvoorbeeld bereikt de energievoorziening haar limiet, terwijl de vraag naar datacentercapaciteit exponentieel groeit. In de VS verbruiken datacenters inmiddels meer dan 5% van de nationale elektriciteit — een percentage dat snel stijgt.
AI heeft dus niet alleen een compute-probleem, maar een energieplafond.
Toch is er optimisme. Nieuwe chiparchitecturen, zoals het Mamba-model en kwantisatie-technieken (waarbij berekeningen op lagere precisie worden uitgevoerd), zorgen voor enorme efficiëntieslagen. Waar Nvidia’s oude GPU’s werkten met 32-bit berekeningen, draaien moderne AI-chips al op 8-bit of lager, met minimale kwaliteitsverlies.
Dat betekent dat modellen kleiner en energiezuiniger kunnen worden, zonder dat hun prestaties dalen. Bovendien ontstaan er nieuwe hardwarecategorieën, specifiek afgestemd op taken — van edge devices tot gespecialiseerde AI-accelerators.
Ondernemer en investeerder Sid Sijbrandij van Gitlab en Kilo Code legde een belangrijk punt op tafel: technologie alleen lost het energievraagstuk niet op. De energie-infrastructuur zelf moet opnieuw worden ontworpen.
Zijn visie: de toekomst is zon en batterijen. Fusiereactoren zijn te ver weg, kernenergie te traag om te bouwen. Zonne-energie biedt wél schaalbaarheid, mits we het slim aanpakken.
Zijn plan:
Volgens hem ligt de sleutel niet in meer energie, maar in minder verspilling.
De wedloop om kunstmatige intelligentie te schalen is een race tussen software-innovatie, hardware-architectuur en energie-efficiëntie.
De toekomst van AI zal niet alleen bepaald worden door wie de slimste modellen traint, maar door wie ze het meest duurzaam kan voeden.
De conclusie uit San Francisco: “De grootste doorbraak in AI zal niet uit Silicon Valley komen, maar uit een energiecentrale.”