Dit blijkt uit een recente studie Gepubliceerd In het tijdschrift JouleAlex de Vries, datawetenschapper aan de Vrije Universiteit Amsterdam in Nederland, schat dat AI-serverparken in 2027 jaarlijks tussen de 85 en 134 terawattuur (TWh) aan energie zouden kunnen verbruiken.
Dat cijfer komt grofweg overeen met het jaarlijkse energieverbruik van een land als Nederland, en bedraagt 0,5% van het huidige mondiale elektriciteitsverbruik in de wereld.
‘We hoeven dit niet volledig buiten proporties op te blazen’, zei De Vries De De New York Times. “Maar tegelijkertijd zijn de cijfers die ik schrijf niet klein.”
Naarmate de vraag naar AI-diensten toeneemt, zal het bijbehorende energieverbruik de komende jaren aanzienlijk toenemen.
In 2022 zullen datacenters 1% tot 1,3% van het totale elektriciteitsverbruik in de wereld voor hun rekening nemen. Cryptocurrency-mining vertegenwoordigde nog eens 0,4%.
De elektriciteit die nodig is voor AI-operaties kan de mondiale CO2-uitstoot verhogen totdat hernieuwbare energiebronnen worden geïntroduceerd.
Generatieve AI wordt steeds toegankelijker voor het publiek, omdat chatbots zoals ChatGPT van OpenAI op grote schaal worden gebruikt door studenten, programmeurs, ontwerpers en schrijvers. Deze chatbots zijn gebouwd op AI-modellen die zijn getraind op uitgebreide datasets, wat veel kracht vergt.
In zijn onderzoekspaper Hugging Face beweert het Amerikaanse AI-bedrijf De Vries dat zijn meertalige AI-model voor tekstgeneratie heeft geregistreerd dat het tijdens zijn trainingsproces 433 megawattuur (MWh) verbruikte. Dat is genoeg om 40 gemiddelde Amerikaanse huizen een heel jaar van stroom te voorzien.
Tools zoals ChatGPT vereisen een aanzienlijke hoeveelheid rekenkracht en vereisen als gevolg daarvan energiebronnen bij het genereren van tekst als reactie op aanwijzingen.
Volgens de Vries kan het draaien van ChatGPT dagelijks 564 MWh elektriciteit verbruiken. Bovendien schat hij dat als Google AI zou gebruiken voor zijn grofweg negen miljard dagelijkse zoekopdrachten, dit jaarlijks 29,2 TWh aan stroom nodig zou hebben. Dit is vergelijkbaar met het Ierse elektriciteitsverbruik en meer dan het dubbele van het totale energieverbruik van Google van 15,4 TWh in 2020.
“We erkennen dat het trainen van grote modellen energie-intensief kan zijn, en dat is een van de redenen waarom we voortdurend werken aan het verbeteren van de prestaties”, aldus een woordvoerder van OpenAI. gezegd Nieuwe wetenschapper.
“We besteden veel aandacht aan het beste gebruik van onze rekenkracht.”
Thomas Wolff, medeoprichter van Hugging Face, zegt dat er tekenen zijn dat kleinere AI-modellen nu de mogelijkheden van grotere benaderen, wat tot aanzienlijke energiebesparingen zou kunnen leiden.
Modellen zoals de Mistral 7B en Meta’s Llama 2, die 10 tot 100 keer kleiner zijn dan de GPT-4, kunnen veel van dezelfde missies en functies uitvoeren, zei hij.
“Net zoals je geen Ferrari nodig hebt om naar je werk te rijden, heeft niet iedereen GPT4 voor alles nodig.”
“Student. Waarschijnlijk een cafetariaspecialist in een cafetaria. Televisieprofessional. Jongleur. Professionele voedingsspecialist. Typisch alcoholist. “
More Stories
Commentaar: Denkt u dat autorijden in Groot-Brittannië duur is? Probeer Nederland
Het Asielagentschap krijgt een boete van 50.000 euro per dag.
Nederland 2025: Welke grote Nederlandse ster gaat het land vertegenwoordigen?