Live AI-nieuws
    Samsung werkt aan drieledig opvouwbare smartphone met stylus in het scharnierBerichten tussen Android en iPhone nu beveiligd met end-to-end-versleutelingGM ontslaat honderden IT-medewerkers om personeel met AI-vaardigheden te wervenGoogle stopt zero-day-aanval die met hulp van AI zou zijn ontwikkeldDigg maakt doorstart als een door AI aangedreven nieuwsaggregatorGoogle lijkt AI-voicemail uit te gaan brengen in Nederland en BelgiëKoreaanse fabrikanten steunen Config om de TSMC van robotdata te wordenCowboy Space haalt 275 miljoen dollar op voor raketten voor ruimtedatacentersAI-tool Mythos claimt onterecht vier kwetsbaarheden in curl-softwareDefensie-techbedrijf Helsing zoekt 1,2 miljard dollar bij waardering van 18 miljardMusk en Altman strijden in de rechtbank over de toekomst van OpenAINederlands techbedrijf Bird ontslaat 20 procent van personeel vanwege AI
    Samsung werkt aan drieledig opvouwbare smartphone met stylus in het scharnierBerichten tussen Android en iPhone nu beveiligd met end-to-end-versleutelingGM ontslaat honderden IT-medewerkers om personeel met AI-vaardigheden te wervenGoogle stopt zero-day-aanval die met hulp van AI zou zijn ontwikkeldDigg maakt doorstart als een door AI aangedreven nieuwsaggregatorGoogle lijkt AI-voicemail uit te gaan brengen in Nederland en BelgiëKoreaanse fabrikanten steunen Config om de TSMC van robotdata te wordenCowboy Space haalt 275 miljoen dollar op voor raketten voor ruimtedatacentersAI-tool Mythos claimt onterecht vier kwetsbaarheden in curl-softwareDefensie-techbedrijf Helsing zoekt 1,2 miljard dollar bij waardering van 18 miljardMusk en Altman strijden in de rechtbank over de toekomst van OpenAINederlands techbedrijf Bird ontslaat 20 procent van personeel vanwege AI

    Duurzaamheid van AI: Hoe schadelijk is kunstmatige intelligentie voor het milieu?

    Bekijk de harde cijfers over het energie- en waterverbruik van AI en ontdek direct werkbare oplossingen.

    De duurzaamheid van AI is een groeiend milieudilemma. Kunstmatige intelligentie eist wereldwijd een zware tol door een immens stroom- en waterverbruik. In 2024 was AI verantwoordelijk voor 11 tot 20 procent van het wereldwijde stroomverbruik van datacenters. Het trainen van zware modellen zoals GPT-4 genereert enorm veel CO2, en het dagelijkse serverpark vereist constant miljoenen liters koelwater (gemiddeld 500 milliliter per ChatGPT-conversatie). Toch biedt artificiële intelligentie tegelijkertijd oplossingen om de klimaatverandering tegen te gaan. Uiteindelijk hangt de echte footprint af van efficiënt hardware-gebruik, de juiste modelkeuze en groene datacenters.

    De explosieve opkomst van generatieve AI heeft een complexe schaduwzijde. Waar de technologie processen versnelt en menselijke efficiëntie vergroot, bouwt het op de achtergrond een schrikbarende ecologische voetafdruk op. De duurzaamheid van AI is niet langer een theoretische discussie, maar een directe uitdaging voor bedrijven, overheden en consumenten.

    De harde realiteit: Het energieverbruik van AI in cijfers

    De ruggengraat van artificiële intelligentie bestaat uit massieve datacenters gevuld met duizenden en soms tienduizenden grafische verwerkingseenheden (GPU's). Deze servers draaien de klok rond om zowel nieuwe modellen te trainen als dagelijkse zoekopdrachten (inferentie) te verwerken.

    Volgens recent onderzoek van de Vrije Universiteit Amsterdam (Alex de Vries-Gao, 2025) consumeert AI inmiddels een aanzienlijk deel van de wereldwijde computercapaciteit. In 2024 is AI verantwoordelijk voor 11% tot 20% van het totale stroomverbruik van alle datacenters wereldwijd. De elektriciteit die nodig is om de wereldwijde AI-infrastructuur draaiende te houden, is vergelijkbaar met het stroomverbruik van een grote internationale wereldstad of zelfs een klein land.

    Een klassieke zoekopdracht kost relatief weinig energie. Het genereren van een antwoord door een groot taalmodel (LLM) kost echter tot dertig keer meer stroom. Dit komt doordat generatieve modellen voor ieder woord een complexe wiskundige berekening door alle lagen van het neurale netwerk moeten sturen.

    Verwachtingen voor de nabije toekomst

    Het Internationaal Energieagentschap (IEA) trekt eveneens aan de bel. Het bureau voorspelt dat het totale energieverbruik van datacenters tegen 2030 zal verdubbelen, primair gedreven door de schaalvergroting van kunstmatige intelligentie. Zonder ingrepen zet dit een enorme druk op de toch al zwaarbelaste elektriciteitsnetwerken (netcongestie), wat de transitie naar duurzame energie in gevaar brengt.

    Type Taak Geschat Energieverbruik Relatieve Impact
    Google Zoekopdracht 0,3 Wattuur (Wh) Zeer Laag
    Basis ChatGPT Prompt ~2,9 Wattuur (Wh) Gemiddeld (10x traditioneel)
    AI Afbeelding Genereren ~4 tot 10 Wattuur (Wh) Hoog
    Korte AI Video Genereren > 20 Wattuur (Wh) Zeer Hoog

    Verborgen kosten: Waterverbruik en koelsystemen

    Naast stroom verbruiken de datacenters die AI-modellen hosten gigantische hoeveelheden water. Computersystemen produceren restwarmte. Zonder effectieve koeling crashen de servers, degradeert de hardware en ontstaan er brandrisico's.

    De efficiëntste manier om massale serverparken te koelen is via waterkoeling (verdampingskoeling). Dit proces kost vers drinkwater dat buiten het ecosysteem verdampt. Uit onafhankelijke analyses blijkt dat een gemiddelde sessie met ChatGPT (varieert van 10 tot 50 gerelateerde prompts) circa 500 milliliter koelwater (een klein flesje) kost.

    Wanneer u zich realiseert dat ChatGPT en vergelijkbare tools wekelijks door honderden miljoenen mensen worden gebruikt, groeit de watervoetafdruk exponentieel. Dit levert directe problemen op in gebieden die kampen met droogte en 'water stress', zoals delen van de Verenigde Staten en Zuid-Europa, waar veel grote datacenters operationeel zijn. Water is cruciaal voor lokale landbouw en drinkwaterreserves, wat regelmatige frictie veroorzaakt tussen techgiganten en lokale overheden.

    CO2-uitstoot: De zware last van het trainen van modellen

    Binnen het domein van AI-duurzaamheid baseren we de impact op twee fundamentele fases: de trainingsfase en de inferentiefase.

    De Trainingsfase

    Het bouwen van een grensverleggend <i>foundation model</i> is extreem energie-intensief. Maandenlang weken draaien supercomputers op volle toeren om miljarden parameters in te stellen en wegingen te optimaliseren op basis van massale datasets. Het trainen van een model ter grootte van GPT-4 stoot naar schatting zo'n 25.000 ton CO2-equivalent uit. Ter vergelijking: dit staat gelijk aan de jaarlijkse uitstoot van duizenden personenauto's die op fossiele brandstof draaien.

    De Inferentiefase (Dagelijks Gebruik)

    Hoewel de training in één keer veel energie kost, bevindt de echte langetermijnimpact zich in de inferentiefase: het dagelijks draaien van prompts door gebruikers. Zodra een model populair wordt, overstijgt de uitstoot van het gebruik al snel de eenmalige trainingskosten.

    Deze milieuaspecten voeden de roep om regulering en transparantie en behoren tot alle zorgen over AI op een rij waar critici terecht naar wijzen. Bedrijven moeten niet alleen kijken naar hun directe uitstoot (Scope 1 en 2), maar ook de CO2-uitstoot meerekenen van de IT-diensten die zij afnemen (Scope 3-emissies).

    De duurzaamheidsparadox: AI als redder van het klimaat?

    Naast de evidente schade die de ontwikkeling van AI toebrengt aan ecosystemen, kent de technologie een fundamenteel andere kant. AI is een van de krachtigste instrumenten geworden voor duurzaamheidsinnovatie. Deze paradox maakt het debat over de duurzaamheid van AI duaal: de operatie wekt de klimaatcrisis deels in de hand, maar de toepassing kan deze mogelijk afremmen.

    Successen waarin AI duurzaamheid concreet versnelt:

    1. Energie-optimalisatie en Smart Grids: AI identificeert patronen en optimaliseert stroomnetwerken in real-time. Hierdoor renderen wind- en zonnepaneelparken aanzienlijk beter door vraag en aanbod foutloos af te stemmen.
    2. Weersvoorspellingen: AI-modellen (zoals GraphCast van Google DeepMind) voorspellen extreme weersomstandigheden veel sneller en nauwkeuriger dan traditionele meteorologische modellen. Dit bespaart levens en limiteert infrastructuurschade.
    3. Materiaalonderzoek: AI wordt ingezet om moleculaire structuren te simuleren voor geavanceerde batterijtechnologie, CO2-afvang en biologisch afbreekbare verpakkingen. Onderzoek dat normaliter decennia kost, vindt nu in weken plaats.
    4. Precisielandbouw: Modellen analyseren satellietbeelden en drone-data om het gebruik van water, landbouwgif en kunstmest drastisch te beperken, wat direct leidt tot minder landbodemvervuiling.

    Praktische stappen: Hoe gebruikers de AI-impact verkleinen

    Als particulier of professional die dagelijks met AI werkt, heeft u directe invloed op hoeveel capaciteit de servers (en daarmee stroom) uw opdrachten eisen. Maak bewuste keuzes in welk model u voor welke taak inschakelt.

    • Kies het juiste model voor de taak: Gebruik geen zware, dure modellen (zoals GPT-4 of de grootste varianten van Claude of Gemini) voor simpele samenvattingen of tekstanalyse. Kies in plaats daarvan voor efficiënte <i>Small Language Models</i> (SLM's) of lichte varianten zoals Gemini Flash. Dit verlaagt de belasting aanzienlijk. Bekijk hiervoor onze gids voor het energie-zuinige AI-tools kiezen.
    • Beperk generatie van afbeeldingen: Het genereren van afbeeldingen of video kost vele malen meer energie dan het genereren van een stuk tekst. Doe dit daarom gericht en voorkom nodeloze iteraties.
    • Batching en Caching: Voer taken geclusterd uit als u werkt met API's. Sla resultaten (caching) lokaal op zodat u niet telkens een nieuw API-verzoek hoeft in te schieten voor veelvoorkomende vragen of datapreparaties.
    • Hergebruik effectieve prompts: Werk via gestructureerde, efficiënte prompt engineering. Hoe sneller het AI-model exact begrijpt wat u zoekt, des te minder onnodige rekenkracht er wegvloeit naar slechte outputs en opvolgende herstel-vragen.

    Zakelijk beleid: Een duurzame AI-strategie voor bedrijven

    Voor organisaties is het integreren van AI niet langer een technische keuze, het is medeverantwoordelijk voor uw ESG-doelstellingen (Environmental, Social, en Governance). Een bedrijf dat AI klakkeloos integreert in iedere afdeling ontdekt al snel dat zijn cloud-kosten én CO2-voetafdruk exponentieel toenemen.

    1. Transparantie eisen van leveranciers

    Accepteer niet dat de klimaatimpact van de software die uw bedrijf inkoopt een black box is. Vraag leveranciers openlijk om heldere rapportages aangaande stroom- en waterverbruik (water usage effectiveness - WUE) en CO2-equivalenten. Bedrijven als Microsoft (Azure), Google en Amazon (AWS) documenteren in hoeverre zij draaien op duurzame energie.

    2. De locatie van het datacenter

    De stroommix varieert enorm per regio. Bent u uw eigen modellen aan het hosten of fine-tunen in de cloud? Selecteer dan serverregio's met een groen energienetaandeel.

    • Verenigde Staten (midden): Vaak afhankelijk van steenkool of gas.
    • IJsland en Noorwegen: Draaien nagenoeg volledig op hydro-elektrische of geothermische koeling.
    • Nederland: Biedt lokaal datacenters die een breed scala aan hernieuwbare bronnen gebruiken, sterk geleund op offshore windstroom.

    3. Efficiëntie in architectuur en lokale modellen

    Hoe compacter het model, hoe duurzamer. Train kleinere, domeinspecifieke modellen open-source lokaal (On-Premise of in een eigen cloud). Het draaien van lichte modellen kost minder elektriciteit dan data voortdurend heen en weer pingen naar de grote monolithische API's in andere werelddelen.

    Een solide IT-plan houdt rekening met al deze technische milieuvariabelen. Dit is de kern van een duurzaam AI-beleid opstellen waarbij u niet inlevert op innovatiesnelheid maar wel verantwoord handelt richting het klimaat.

    De Toekomst: Nieuwe hardware en regelgeving

    De roep om energiezuinigheid resulteert in nieuwe hardware-innovaties. Chips worden steeds efficiënter ontwikkeld met speciale focus op AI-berekeningen. Aan de andere kant evolueert ook software: fundamentele nieuwe modelarchitecturen, zoals 'Liquid Neural Networks' of efficiëntere varianten op de heersende 'Transformer'-architectuur, beloven in de toekomst de rekenkracht die vereist is per prompt sterk in te dammen.

    Ook de wetgevende organen zitten niet stil. In navolging van de Europese AI Act weegt de regelgever na over plichtplegingen inzake transparantie van de ecologische voetafdrukken van basismodellen. Hierdoor zullen AI-ontwikkelaars niet alleen concurreren op intelligentie, maar nadrukkelijk op operationele duurzaamheid.

    U wilt dit speelval niet missen of hier te laat op de hoogte van zijn. Neem voor structurele analyses en bredere economische diepte-impact van deze technologieën rustig de tijd om de ai.nl-rapporten aandachtig te scannen en te downloaden. Deze geven u direct handvatten om uw strategie voor de komende jaren op orde te maken.

    Veelgestelde vragen

    Hoeveel water verbruikt ChatGPT?+

    Uit schattingen blijkt dat een gemiddelde sessie met ChatGPT (ongeveer tien tot vijftig gekoppelde vragen) zo'n 500 milliliter vers drinkwater kost. Wereldwijde datacenters maken gebruik van dit verdampende koelwater om de massale hitte van hun AI-servers af te voeren. Dit vormt een risico in droge regios.

    Hoe groot is de CO2-uitstoot van een AI-model?+

    Het trainen van een state-of-the-art fundamentmodel zoals GPT-4 stoot volgens taxaties rond de 25.000 ton CO2-equivalent uit. Daar komt vervolgens nog de CO2-uitstoot overheen voor het miljoenen keren per dag verwerken van alle ingevoerde vragen door eindgebruikers in de inferentiefase.

    Waarom gebruikt AI meer stroom dan klassieke software?+

    Een standaard zoekopdracht via Google pakt informatie uit een database, wat ongeveer 0,3 wattuur kost. Een gegenereerd antwoord door een AI-model moet voor ieder gekozen woord complexe wiskundige theorieën berekenen tussen miljarden parameters, wat de stroombehoefte tot wel 30 keer verhoogt (gemiddeld 2,9 tot 10 wattuur per vraag).

    Wat is het verschil tussen training en inferentie bij AI?+

    Training is de beginfase waarin een model maandenlang ongekend grote hoeveelheden data consumeert op supercomputers, wat een enorme piek in uitstoot geeft. Inferentie is de dagelijkse gebruiksfase waarin het model de getrainde vaardigheden inzet om de prompts van gebruikers te beantwoorden, wat langdurig continu stroom vergt.

    Kan AI de klimaatcrisis ook helpen oplossen?+

    Zeker. AI is cruciaal voor diverse duurzaamheidsinnovaties. Het regisseert onder meer smart grids voor betere zonne- en windenergie spreiding, ontwerpt razendsnel geavanceerde moleculaire structuren voor de volgende generatie batterijen, en analyseert complexe weermodellen en bosbranddata vele malen sneller dan de mens en eerdere technologie.

    Welke landen bieden de groenste datacenters voor AI?+

    Datacenters verbruiken minder vervuilende stroom als zij gehuisvest zijn in landen die draaien op een groen energienet. IJsland en Noorwegen (hydro-elektrische en warmtebron stroom en natuurlijke koeling) evenals gebieden in West-Europa waaronder Nederland (veel windenergie beschikbaar) zijn momenteel van de duurzaamste locaties voor AI-servers.

    Hoe kan ik als de individuele gebruiker AI duurzamer inzetten?+

    U verlaagt uw milieu-impact direct door specifieke modellen te koppelen aan taken. Gebruik efficiënte lichte versies zoals Gemini Flash of kleine LLM's in de cloud in plaats van de zeer zware generaties zoals GPT-4, stop het onnodig uitproberen met het genereren van afbeeldingen en combineer taken tot grotere geclusterde prompts.

    Blijf scherp op AI

    Verdiep u in de AI-impact

    Lees onze uitgebreide rapporten voor strategische inzichten over duurzame AI en blijf vooroplopen in de technologie.

    AI-inzichten, cases en events. Eens per maand. Geen spam.

    Volgende stap

    Bekijk ai.nl-rapporten over AI-impact

    Nieuwsbrief

    Altijd op de hoogte van AI.

    Eens per maand: cases, frameworks en concrete voorbeelden van wat werkt op de werkvloer. Geen ruis.

    Geen spam. Uitschrijven kan altijd.