Bár jogos az aggodalom az MI éghajlati hatása miatt, az MIT Technology Review elemzője szerint még nem veszett el minden remény.
Januári beiktatása másnapján Donald Trump elnök bejelentette a Stargate elnevezésű 500 milliárd dolláros kezdeményezést, amelynek célja a mesterséges intelligencia infrastruktúrájának kiépítése, amit a legnagyobb technológiai vállalatok is támogatnak. A Stargate célja, hogy felgyorsítsa a hatalmas adatközpontok és villamosenergia-hálózatok kiépítését az Egyesült Államokban, hogy az ország megőrizhesse előnyét Kínával szemben. Azonban sok szakértő aggasztónak tartja azt, hogy merrefelé tart ez az iparág.
De ha átnézzük a robbanásszerűen emelkedő költségekről és a klímaváltozásra gyakorolt hatásokról szóló beszámolókat, találunk okot a reményre is. Folyamatban vannak ugyanis olyan innovációk, amelyek javíthatják az MI-modellek mögött álló szoftverek, az azokat futtató számítógépes chipek és az éjjel-nappal működő adatközpontok hatékonyságát.
Hatékonyabb modellek
A legkézenfekvőbb kiindulási pont maguk a modellek, vagyis azok létrehozásának és működésének módja. Az MI-megoldásokat a neurális hálózatok rengeteg adat alapján történő képzésével hozzák létre. A nagy nyelvi modelleket például hatalmas mennyiségű szöveggel, az önvezető modelleket pedig hatalmas mennyiségű vezetési adattal okosítják.
Viszont a mesterséges intelligenciát fejlesztő cégek gyakran rendszertelenül gyűjtik össze a szükséges adatokat, például amiket a nagy nyelvi modellek tanításához használnak, azok szinte csak az internetről származnak, beleértve rengeteg beszkennelt könyvtári anyagot is. A korábbi gyakorlat az volt, hogy minden elérhető szöveget válogatás nélkül begyűjtöttek, majd ezekből építettek fel egy hatalmas adathalmazt. Ez a módszer bár hozott eredményeket, hosszú távon nem hatékony: egy modellt ugyanis újra és újra ugyanazokon a hatalmas adatcsomagokon tanítani csak azért, hogy magától megtalálja a fontos mintákat, rengeteg időt és energiát igényel – feleslegesen.
Lehet, hogy van hatékonyabb módszer. A gyerekektől sem azt várják el, hogy mindent megtanuljanak, amit valaha leírtak, hanem célzott tananyagot adnak nekik. Szakértők szerint hasonlóan kellene eljárnunk az MI-vel is, és a modelleket konkrét feladatokra szabott, gondosan válogatott adatokkal képezni.
A Writer, egy nagy nyelvi modelleket építő MI-startup – amely vállalati ügyfeleknek nyújt szolgáltatásokat –, és a munkatársai azt állítják, hogy a modelljeik olcsóbban képezhetők és üzemeltethetők, részben azért, mert szintetikus (mesterségesen előállított) adatokkal tanítják azokat. Vagyis testreszabott adatkészleteket adnak, amik gyorsabbá (és így olcsóbbá) teszik a képzési folyamatot. Például nem egyszerűen letöltik a Wikipédiát, hanem kiválasztanak egyes Wikipédia-oldalakat, és azok tartalmát különböző formátumokba írják át – például szövegblokk helyett kérdés-válasz-formában –, hogy a modellek kevesebb adatból többet tanulhassanak.
A képzés a modell életciklusának csupán kezdete, ugyanis a méretük növekedésével egyre drágább a működésük. Az úgynevezett érvelő modellek, amelyek lépésről lépésre dolgoznak fel egy lekérdezést, mielőtt választ adnak, különösen nagy teljesítményigényűek, mert minden válaszhoz egy sor közbenső alválaszt számolnak ki. Ezeknek az új képességeknek az ára megdöbbentő:
az OpenAI o3 érvelő modelljének a becsült költsége feladatonként akár 30 ezer dollár is lehet.
De ez a technológia még csak kísérleti stádiumban van. Ali Farhadi, az Allen Institute for AI nonprofit szervezet vezérigazgatója arra számít, hogy a költségek hamarosan csökkennek, például a mérnökök kitalálják, hogyan lehet megakadályozni, hogy a következtető modellek korábban vegyék észre, ha rossz megoldások felé tartanak.
Hozzátette: az energiafogyasztás jelentős növekedése nélkül elérhető teljesítménynövekedés egyik módja az inferencialépések (azok a számítások, amelyeket a modell végez a válaszának kialakításához) párhuzamos futtatása. Ez utóbbiak a mai szoftverek nagy részének az alapját képezik, különösen a nagy nyelvi modellek esetében.
Ez az alapvető technika komolyabb problémákra is alkalmazható, mivel a feladatok felosztásával és különböző részeinek egyidejű futtatásával a párhuzamos számítástechnika gyorsabb eredményeket tud elérni. Emellett a rendelkezésre álló hardver hatékonyabb kihasználásával energiát is megtakaríthatnak. Ehhez azonban új, intelligens algoritmusokra van szükség, amelyek koordinálják a többi alfeladatot, és végül egyetlen eredményben egyesítik azokat.
Persze nem kellenek mindenhez a legnagyobb, legerősebb modellek, vannak feladatok, amikhez a kisebbek is elegendők.
Sok esetben ezen kompaktabb modellek ugyanolyan jól teljesítenek, mint a nagyobbak, különösen speciális felhasználási esetekben.
Douglas Heaven, az MIT Technology Review szakértője szerint idővel népszerűbbek lesznek a hatékonyabb, testreszabott programok, hiszen nekik például nincs szükségük egy hatalmas adathalmazon képzett univerzális LLM-re árukészletek kezeléséhez vagy ügyfélkérdések megválaszolásához.
Christina Shim, az IBM fenntarthatósági vezetője ezt a tendenciát látja ügyfelei technológiabevezetési gyakorlatában. Azon dolgozik együtt a vállalatokkal, hogy a lehető legkisebb és legkevesebb energiát fogyasztó modelleket válasszák, és szintén úgy véli, hogy
„nem feltétlenül a legnagyobb modell hozza a legnagyobb hasznot”.
Egy kisebb, amely pontosan azt csinálja, amire szükség van, jobb befektetés, mint egy nagyobb.
Hatékonyabb számítógépes chipek
Várhatóan a szoftverek egyre egyszerűbbé válnak, és a hardverek is hatékonyabbak lesznek. Heaven szerint mindez feszültséget szülhet: rövid távon az Nvidiához hasonló chipgyártók egyre erősebb chipek fejlesztésén versenyeznek majd, hogy kielégítsék az egyre erősebb modelleket futtatni kívánó vállalatok igényeit. Hosszú távon azonban ez a verseny nem fenntartható, hiszen a modellek annyira „megnőttek”, hogy már egy-egy lépés teljesítése is nagy kihívásnak számít.
Hozzátette: a nagy MI-vállalatok gyakorlatilag veszteséget termelnek azzal, hogy adatközpontokban futtatják a programjaikat, hogy kielégítsék több millió ember igényét. Ezt úgy tudnák csökkenteni, hogy a számításokat az adatközpontokból az emberek saját gépeire helyeznék át.
Ezt próbálta meg a Microsoft a Copilot+ PC kezdeményezésével, amelynek keretében olyan szupergyors PC-ket hozott forgalomba, amelyekkel az MI-modellek futtathatók (és az energiaszámlák is fedezhetők). Az elképzelésük nem vált be, de a törekvés folytatódhat, hiszen a vállalatok a modell futtatásának költségeit minél inkább csökkenteni szeretnék.
Ahhoz azonban, hogy az MI-modellek (még a kicsik is) megbízhatóan működjenek az emberek saját eszközein, alapvető változásra van szükség az ezen eszközöket általában meghajtó chipekben: még energiahatékonyabbá kell tenni azokat.
Itt jön be a képbe az EnCharge. A cég megoldása egy új típusú chip, amely a digitális helyett az analóg memóriában történő számításra épül. A hagyományos digitális számítógépek chipjeiben található elektronika a bináris 0-kkal és 1-ekkel ábrázolja az információkat, az analógokban lévő elektronika viszont 0 és 1 közötti értékek skáláján jeleníti meg az információkat. Vagyis ez elméletileg lehetővé teszi, hogy ugyanakkora teljesítmény mellett többet lehessen elérni.
Az EnCharge hardvere csak egy a számos kísérleti chipterv közül, amelyek a közeljövőben megjelennek. Az IBM és mások évek óta kutatják az úgynevezett neuromorf számítástechnikát, vagyis hogy olyan számítógépeket tervezzenek, amelyek utánozzák az agy rendkívül hatékony feldolgozási képességeit. Egy másik irányzat az optikai chipek, amelyek a hagyományos chipekben az elektronokat fényre cserélik, ezzel is csökkentve a számításhoz szükséges energiát. Egyik terv sem áll még közel ahhoz, hogy versenyezzen az Nvidia és társai által gyártott elektronikus digitális chipekkel, de a hatékonyság iránti igény növekedésével ezek az alternatívák is megjelennek majd a piacon.
Hatékonyabb hűtés az adatközpontokban
Az energiaigény másik hatalmas forrása az MI-modelleket futtató csúcskategóriás hardverek által termelt hulladékhő kezelésének szükségessége. Tom Earp, a Page tervezőiroda műszaki igazgatója – aki 2006 óta foglalkozik adatközpontok építésével, és hat éven át a Meta számára is dolgozott – minden részletben a hatékonyságot keresi: az épület szerkezetétől kezdve az áramellátáson és a hűtésen át egészen az adatok be- és kimenetének optimalizálásáig.
Szerinte több mint egy évtizedig az adatközponti tervezés meglehetősen stabil volt – aztán minden megváltozott. A GPU-khoz hasonló processzorokra való átállással és az új chipek megjelenésével nehéz megjósolni, hogy néhány év múlva milyen hardverekre lesz szükség az új adatközpontokban, és így milyen energiaigényt kell kielégíteniük. Rövid távon azonban biztosra vehető, hogy a chipek tovább gyorsulnak, ezáltal könnyebben felmelegszenek. „Azt látom, hogy azok, akiknek ezeket a döntéseket majd meg kell hozniuk, az energiaigény jelentős növekedésével számolnak.”
Egy dolog azonban biztos: az MI-modelleket futtató chipek, például a GPU-k, több energiát igényelnek, mint a korábbi számítógépes változataik. Ez pedig komoly következményekkel jár az adatközpontok hűtési infrastruktúrájára nézve, mivel ha nő az energiafogyasztás, nő a hőtermelés is.
Ennyi nagy teljesítményű chip együttes működése mellett a léghűtés, vagyis a nagy ventilátorok már nem elegendők: a víz lett a leggyakrabban használt hűtőanyag, mivel jobban vezeti a hőt, mint a levegő. Ez leginkább az adatközpontok környékén található vízkészleteket használja fel, de vannak módszerek a vízhűtés hatékonyságának növelésére.
Az egyik lehetőség, hogy az adatközpontból a hulladékhőt olyan helyekre szállítják, ahol felhasználható.
Dániában például az adatközpontokból származó vizet lakások fűtésére használják.
Párizsban pedig az olimpia idején ezzel fűtötték az úszómedencéket.
Emellett a víz akkumulátorként is szolgálhat. A megújuló energiaforrásokból, például a szélturbinákból vagy a napelemekből nyert energiát fel lehet használni a víz hűtésére, amelyet addig tárolnak, amíg később szükség lesz rá a számítógépek hűtéséhez, így csökken a csúcsidőszakok energiafogyasztása.
Azonban Tony Atti, a speciális hűtőchipeket gyártó Phononic startup vezérigazgatója szerint ahogy az adatközpontok egyre melegebbé válnak, a vízhűtés önmagában nem lesz elegendő. A Nvidia példáját hozza fel, amely hamarosan piacra dob egy másodpercenként 1,6 terabájt adatot feldolgozó chipet:
„Ilyen adatátviteli sebesség mellett pokoli hő keletkezik, és a hűtés iránti igény exponenciálisan nő.”
Atti szerint a szerverekben található chipek az adatközpontok energiafogyasztásának körülbelül a 45 százalékát emésztik fel, és a hűtésük is szinte ugyanannyi energiát igényel. Elmondta, hogy
most először fordul elő, hogy a hőkezelés lesz az MI-infrastruktúra további bővítésének egyik fő akadálya vagy feltétele.
A Phononic hűtőchipjei kis termoelektromos eszközök, amelyeket a hűtést igénylő hardverre vagy annak közelébe lehet elhelyezni. Ezek a fononikus chipek képesek a hőt aktívan elszállítani az egyik felületről a másikra, így hatékonyan hűtik a rendszert.
A szerverek belsejében és körülöttük szűk helyre préselve ezek a chipek érzékelik a hő minimális emelkedését, majd be- és kikapcsolnak a hőmérséklet stabilizálása érdekében. Bekapcsolt állapotban a felesleges hőt egy vízcsőbe továbbítják, ahonnan elvezetik azt. Atti szerint ezek a chipek a meglévő hűtőrendszerek hatékonyságának növelésére is felhasználhatók, hiszen minél gyorsabban lehet lehűteni a vizet egy adatközpontban, annál kevesebb vízre van szükség.
A költség- és energiafelhasználás-csökkentés kéz a kézben jár
Az MI energiafogyasztásának robbanásszerű növekedése ellenére Heaven szerint van ok az optimizmusra. Bár a fenntarthatóság egy kívánatos cél, az MI esetében a legjobb módszer a költségek visszafogására az energiaszámla csökkentése. Ez pedig ösztönözheti a cégeket a hatékonyság növelésére és a zöldítésre. A vállalatok tehát kénytelenek lesznek átgondolni, hogyan és mikor használják az MI-t, és ahol csak lehet, kisebb, testreszabott megoldásokat fognak választani.
Christina Shim, az IBM fenntarthatósági vezetője szerint az MI energiafelhasználásával kapcsolatos aggodalmak megalapozottak, de rámutat az internet és a személyi számítógépek 25 évvel ezelőtti elterjedésére. Ahogy a forradalmak mögött álló technológia fejlődött, az energiaköltségek többé-kevésbé stabilak maradtak, annak ellenére, hogy a felhasználók száma az egekbe szökött. Shim szerint ez az általános szabály ezúttal is érvényes lesz: amikor a technológia kiforr, hatékonyabbá is lesz. Szerinte az MI egy árucikké válik, ami azt jelenti, hogy a piaci verseny le fogja nyomni az árakat, így a versenyképességük megőrzése érdekében a vállalatok mindenekelőtt az energiafelhasználás csökkentésére fognak törekedni.
Kapcsolódó: