A generatív mesterséges intelligencia térhódítása nem csupán technológiai forradalom, hanem környezeti kihívás is. Miközben a modellek egyre okosabbak, működtetésük és gyártásuk víz- és energiaigénye aggasztó mértékben nő.
A generatív mesterséges intelligenciát (MI) övező lelkesedést nehéz lenne figyelmen kívül hagyni – legyen szó a munkahelyi hatékonyság növeléséről vagy a tudományos kutatás előmozdításáról. Bár az új technológia robbanásszerű fejlődése sok ágazatban lehetővé tette a hatékony MI-modellek gyors bevezetését, a generatív MI körül kialakult „aranyláz” környezeti hatásai továbbra is nehezen mérhetők, és még nehezebb ezeket érdemben csökkenteni.
Az olyan modellek betanítása, mint az OpenAI GPT-4, amelyek gyakran több milliárd paraméterrel dolgoznak, elképesztő mennyiségű számítási kapacitást és ezzel együtt villamos energiát igényel – ez pedig hozzájárul a szén-dioxid-kibocsátás növekedéséhez és az elektromos hálózat terheléséhez.
Ráadásul nemcsak a fejlesztés során jelentős az energiaigény: ezeknek a rendszereknek a mindennapi alkalmazása – amikor emberek milliói használják őket –, valamint a modellek utólagos finomhangolása is hosszú távon nagy mennyiségű energiát emészt fel.
A generatív MI nemcsak áramot fogyaszt: a modellek betanításához, működtetéséhez és finomhangolásához szükséges hardverek hűtése hatalmas mennyiségű vizet igényel. Ez jelentős terhet róhat a városi vízhálózatokra, és felboríthatja a helyi ökoszisztémák egyensúlyát. A generatív alkalmazások számának növekedésével párhuzamosan nőtt az igény a nagy teljesítményű számítástechnikai eszközök iránt is – ezek előállítása és szállítása pedig további, gyakran rejtett környezeti terhekkel jár.
„Amikor a generatív MI környezeti hatásairól beszélünk, nem csupán arra kell gondolnunk, mennyi áramot fogyaszt egy-egy gép működés közben. Ennél jóval összetettebb és mélyebb rendszerszintű következményekről van szó, amelyek hosszú távon is hatással lehetnek ránk” – mondja Elsa A. Olivetti, a MIT Anyagtudományi és Mérnöki Tanszékének professzora, aki egyben a MIT új, klímavédelemmel foglalkozó Climate Project dekarbonizációs misszióját is vezeti.
Olivetti a 2024-es A generatív mesterséges intelligencia éghajlati és fenntarthatósági következményei című tanulmány vezető szerzője. A jelentést a MIT több kutatójával közösen készítette az intézmény azon kezdeményezésére, amely a generatív MI társadalomra gyakorolt pozitív és negatív hatásait igyekezett feltárni.
Hatalmas energiaigény
A generatív mesterséges intelligencia egyik legnagyobb környezeti kihívását az adatközpontok villamosenergia-igénye jelenti. Ezeket az adatközpontokat használják a népszerű generatív MI-alkalmazások – például a ChatGPT vagy a DALL-E – mögött működő mélytanulási modellek betanítására és futtatására.
Az adatközpontok szigorúan szabályozott hőmérsékletű létesítmények, amelyek rengeteg számítástechnikai eszközt – szervereket, adattárolókat, hálózati berendezéseket – foglalnak magukba. Csak az Amazon világszerte több mint száz ilyen központot üzemeltet, egyenként körülbelül 50 ezer szerverrel, amelyek főként a cég felhőalapú szolgáltatásait támogatják.
Bár az első adatközpontok már a 20. század közepén megjelentek – az elsőt 1945-ben hozták létre a Pennsylvaniai Egyetemen az ENIAC, az első általános célú digitális számítógép működtetésére –, a generatív MI berobbanása drasztikusan felgyorsította az új adatközpontok építését.
A kutatók becslése szerint Észak-Amerikában az adatközpontok áramigénye 2022 végén még 2688 megawatt volt, de ez 2023 végére megduplázódott, és elérte az 5341 megawattot – részben a generatív mesterséges intelligencia terjedésének köszönhetően. Világszinten az adatközpontok összesített villamosenergia-felhasználása 2022-ben 460 terawattórára emelkedett. Ezzel az adatközpontok az OECD rangsora szerint a világ 11. legnagyobb áramfogyasztójává váltak, Szaúd-Arábiát (371 TWh) megelőzve, és éppen Franciaország mögé (463 TWh) kerülve.
A jelenlegi előrejelzések szerint jövőre ez az érték elérheti az 1050 terawattórát – ami azt jelentené,
hogy az adatközpontok önmagukban a világ ötödik legnagyobb villamosenergia-felhasználójává lépnének elő,
Japán és Oroszország közé ékelődve.
Bár az adatközpontokban nem minden számítás generatív MI-re irányul, ez a technológia jelentős mértékben felelős az energiaigény meredek emelkedéséért.
Az OpenAI GPT-3 modelljének betanítása és működtetése például már önmagában hatalmas energiát igényel. Egy 2021-es tanulmányban a Google és a Berkeley Egyetem kutatói arra jutottak, hogy csupán a képzési folyamat 1287 megawattóra villamos energiát fogyasztott el – ez körülbelül 120 átlagos amerikai háztartás éves energiaigényének felel meg –, és ezzel mintegy 552 tonna szén-dioxid kibocsátásához járult hozzá.
A következtetés növekvő hatása
Emellett a generatív mesterséges intelligencia energiaigénye nem ér véget azzal, hogy a modell betanítása befejeződik.
Minden egyes alkalommal, amikor a modellt használatba vesszük – például amikor valaki megkéri a ChatGPT-t, hogy foglaljon össze egy e-mailt –, a mögöttes számítástechnikai infrastruktúra ismét energiát fogyaszt. A kutatók becslése szerint egyetlen ChatGPT-lekérdezés körülbelül ötször annyi áramot igényel, mint egy hagyományos internetes keresés.
További problémát jelent, hogy a generatív modellek élettartama kifejezetten rövid. A vállalatok a növekvő felhasználói igények miatt néhány hetente új változatokat dobnak piacra – ez pedig azt jelenti, hogy a korábbi modellek betanításához felhasznált energia nagy része gyakorlatilag kárba vész. Az új generációk ráadásul rendre egyre nagyobbak, több paraméterrel dolgoznak, és emiatt még több energiát igényelnek a betanításhoz.
A vízfogyasztás sem elhanyagolható
Bár a kutatási szakirodalomban a legnagyobb figyelmet az adatközpontok áramigénye kapja, ezeknek a létesítményeknek a vízfogyasztása is környezeti hatással jár.
A hűtött vizet használnak az adatközpontok hőelvonására: becslések szerint
egy adatközpont minden kilowattóra energiafogyasztásához két liter vízre van szükség a hűtéshez.
Az adatközpontokban található számítástechnikai hardvereknek is vannak (bár kevésbé közvetlen) környezeti hatásai. Nehéz megbecsülni, hogy mennyi energia szükséges egy GPU gyártásához, amely egy olyan nagy teljesítményű processzor, amely képes kezelni az intenzív generatív AI-feladatokat, de ez biztosan több, mint egy egyszerűbb CPU gyártásához, mivel a gyártási folyamat bonyolultabb. A GPU szénlábnyomát tovább növelik az anyagok és termékek szállításával kapcsolatos kibocsátások.
A GPU-k gyártásához szükséges nyersanyagok beszerzésének is vannak környezeti hatásai, amelyek magukban foglalhatják a szennyező bányászati eljárásokat és a feldolgozáshoz használt mérgező vegyi anyagok alkalmazását.
A TechInsights piackutató cég becslései szerint a három legnagyobb gyártó (NVIDIA, AMD és Intel) 2023-ban 3,85 millió GPU-t szállított adatközpontokba, szemben a 2022-es körülbelül 2,67 millióval. Ez a szám 2024-ben várhatóan még nagyobb arányban fog növekedni.
Pontos vagy zöld legyen az MI?
Ahogy egyre több nagy nyelvi modell (LLM) válik elérhetővé, kiderül, hogy ezek használata nem csak intellektuális, hanem környezeti költséggel is jár. A legújabb, német kutatásban 14 különböző LLM teljesítményét és kibocsátását vizsgálták, amelyek olyan neves fejlesztőktől származtak, mint a Meta vagy az Alibaba. A modelleknek ezer nehéz, tudományos jellegű kérdésre kellett válaszolniuk, a világtörténelemtől egészen a magas szintű matematikáig. A tesztek egy NVIDIA A100-as GPU-n futottak, amely közismerten nagy energiaigényű. A villamosenergia-fogyasztást pontos mérések alapján számolták át szén-dioxid-egyenértékű kibocsátássá, így tárult fel a modellek valódi ökológiai lábnyoma.
A kutatók arra jutottak, hogy sok modell több szempontból is feleslegesen túlfejlesztett: a mindennapi kérdésekhez gyakran elegendők lennének kisebbek és energiatakarékosabbak is. A válaszok kibocsátása erősen függ a modell méretétől és a feladat típusától is. Különösen a gondolkodást igénylő, átgondolt válaszokat generáló promtok szennyezőek, mivel több szót (tokent) generálnak.
A legpontosabb modell, a Cogito, a kérdések közel 85 százalékára adott helyes választ, ugyanakkor háromszor annyi szén-dioxidot bocsátott ki, mint a hozzá hasonló méretű modellek.
A vizsgálat egyensúlyi kérdéseket vet fel: a legkörnyezetkímélőbb modell, a Qwen 7B csupán minden harmadik kérdésre adott helyes választ, viszont csak 27,7 gramm szén-dioxid-egyenértéket termelt. Ezzel szemben a DeepSeek R1 70B majdnem nyolc kérdésből hétre helyesen válaszolt, viszont több mint 70-szer annyi kibocsátással járt.
A feladat típusa is sokat nyom a latba: az algebrai és filozófiai kérdések hatással voltak a kibocsátás mértékére, ezek ugyanis hatszor annyi szén-dioxidot termeltek, mint egy átlagos diák, miközben házi feladatához kér segítséget.
Egyesek szerint a cégeknek átláthatóbbá kellene tenniük a promtok környezeti hatásait, beleértve a szén-dioxid- és vízfogyasztást is. Ugyanakkor a felhasználóknak is tudatosabban kellene választaniuk, milyen típusú mesterséges intelligenciát használnak és mikor.