AI Opinie

Waarom de toekomst van AI valt of staat met duurzame energie

Remy Gieling
Remy Gieling
October 15, 2025
5
min read
Waarom de toekomst van AI valt of staat met duurzame energie
De toekomst van AI hangt niet alleen af van slimme algoritmes, maar van hoe we de gigantische energiehonger van deze technologie duurzaam kunnen voeden.

De toekomst van kunstmatige intelligentie lijkt grenzeloos — maar de energie die het kost om deze toekomst te bouwen, is dat allesbehalve. Tijdens een paneldiscussie in San Francisco met onder meer Constantijn van Oranje, investeerders, chipdesigners en ondernemers werd één thema pijnlijk duidelijk: AI schaalt sneller dan ons energienet aankan.

Het energievraagstuk van schaalbare intelligentie

AI-modellen worden niet alleen groter, maar ook slimmer. We bewegen van generatieve AI (die tekst en beeld produceert) naar redenerende modellen — systemen die beslissingen nemen, taken uitvoeren en uiteindelijk fysieke handelingen aansturen. Denk aan robots, zelfrijdende auto’s of chirurgische assistenten. Maar deze verschuiving vraagt om drie tot vijf keer meer rekenkracht dan de huidige foundation models.

En rekenkracht betekent energie. Veel energie.

Een schatting die tijdens het panel werd genoemd: als OpenAI zijn huidige groeipad doorzet, heeft het bedrijf in 2033 evenveel energie nodig als het land India. Dat is geen dystopische overdrijving — het is een reëel scenario als we blijven schalen op de manier waarop we nu werken.

Chips, fotonica en geheugen dichtbij de processor

De hardwarewereld voelt de druk. Zoals een van de sprekers het tefeend noemde: “De meeste energie gaat niet naar het rekenen zelf, maar naar het verplaatsen van data.” Daarom wordt gewerkt aan nieuwe architecturen waarin geheugen dichter bij de rekenkern wordt geplaatst, en aan optische interconnecties via fotonica om dataverkeer sneller en energiezuiniger te maken.

Ook aan de koelingskant vinden innovaties plaats: van vloeistofkoeling tot nieuwe materialen die warmte beter afvoeren. Toch is de consensus dat deze verbeteringen incrementeel zijn — en dat er iets fundamenteel anders moet gebeuren om de energievraag echt te doorbreken.

De energiebubbel: het nieuwe plafond van innovatie

Fabrizio del Maffeo, CEO van Axelera AI schetste een ander beeld: niet de AI-bubbel, maar de energiebubbel zal barsten. In Taiwan bijvoorbeeld bereikt de energievoorziening haar limiet, terwijl de vraag naar datacentercapaciteit exponentieel groeit. In de VS verbruiken datacenters inmiddels meer dan 5% van de nationale elektriciteit — een percentage dat snel stijgt.

AI heeft dus niet alleen een compute-probleem, maar een energieplafond.

Nieuwe architecturen, oude wetten

Toch is er optimisme. Nieuwe chiparchitecturen, zoals het Mamba-model en kwantisatie-technieken (waarbij berekeningen op lagere precisie worden uitgevoerd), zorgen voor enorme efficiëntieslagen. Waar Nvidia’s oude GPU’s werkten met 32-bit berekeningen, draaien moderne AI-chips al op 8-bit of lager, met minimale kwaliteitsverlies.

Dat betekent dat modellen kleiner en energiezuiniger kunnen worden, zonder dat hun prestaties dalen. Bovendien ontstaan er nieuwe hardwarecategorieën, specifiek afgestemd op taken — van edge devices tot gespecialiseerde AI-accelerators.

Zonne-energie, batterijen en gelijkstroom

Ondernemer en investeerder Sid Sijbrandij van Gitlab en Kilo Code legde een belangrijk punt op tafel: technologie alleen lost het energievraagstuk niet op. De energie-infrastructuur zelf moet opnieuw worden ontworpen.

Zijn visie: de toekomst is zon en batterijen. Fusiereactoren zijn te ver weg, kernenergie te traag om te bouwen. Zonne-energie biedt wél schaalbaarheid, mits we het slim aanpakken.

Zijn plan:

  • Dag/nachtcyclus: bufferen via batterijen.
  • Seizoenscyclus: overproduceren in de zomer, en die energie via opslag of conversie (bijvoorbeeld in brandstoffen) beschikbaar maken in de winter.
  • Nieuwe infrastructuur: overschakelen van wisselstroom (AC) naar gelijkstroom (DC), rechtstreeks van zonnepanelen naar batterijen en AI-accelerators — zonder omzettingsverlies.

Volgens hem ligt de sleutel niet in meer energie, maar in minder verspilling.

Wat nu?

De wedloop om kunstmatige intelligentie te schalen is een race tussen software-innovatie, hardware-architectuur en energie-efficiëntie.
De toekomst van AI zal niet alleen bepaald worden door wie de slimste modellen traint, maar door wie ze het meest duurzaam kan voeden.

De conclusie uit San Francisco: “De grootste doorbraak in AI zal niet uit Silicon Valley komen, maar uit een energiecentrale.”

Remy Gieling
Job van den Berg

Like the Article?

Share the AI experience with your friends