Még mindig tudnak újat mutatni a techcégek – makronom.eu
2025. június 23., hétfő

Még mindig tudnak újat mutatni a techcégek 

A Google DeepMind új eszköze a matematikai elmélettől az adatközpontok működtetéséig szinte mindenre alkalmazható. 

A Google DeepMind ismét bebizonyította, hogy a nagy nyelvi modellek (az LLM-ek) nemcsak elméleti, hanem gyakorlati problémák megoldására is kiválóan alkalmasak. A MIT Technology Review munkatársa, Will Douglas Heaven szerint a cég legújabb fejlesztése, az AlphaEvolve olyan algoritmusokat hoz létre, amelyek sok esetben felülmúlják az eddigi legjobb, ember által írt megoldásokat – legyen szó chiptervezésről vagy akár az adatközpontok optimalizálásáról. 

Az AlphaEvolve a Google Gemini 2.0 nagy nyelvi modelljeire épül, és képes kódot generálni különféle feladatokhoz. Az LLM-ek gyakran pontatlanok a programírásban, de az AlphaEvolve újítása abban rejlik, hogy minden egyes javaslatot értékel: a rosszakat elveti, a jókat továbbfejleszti egy iteratív folyamatban, amíg megszületik a lehető legjobb algoritmus.  

Az eredményei sokszor hatékonyabbak és pontosabbak, mint az eddigi legjobb megoldások. 

Pushmeet Kohli, a DeepMind egyik alelnöke szerint ez a rendszer olyan, mint egy szuper kódoló ügynök: nem pusztán kódot javasol, hanem olyan megoldásokat is képes generálni, amelyek korábban nem léteztek. A rendszer egyik leglátványosabb eredménye, hogy optimalizálta a Google világszerte használt szerverelosztó szoftverét. Az új algoritmus több mint egy éve fut a cég adatközpontjaiban, és a teljes számítási kapacitás mintegy 0,7 százalékát szabadította fel. Ez elsőre csekélynek tűnhet, de a Google méretéből fakadóan a hatása óriási. 

Jakob Moosbauer, a Warwicki Egyetem matematikusa szerint az AlphaEvolve leginkább azért lenyűgöző, mert nem közvetlenül a megoldást keresi, hanem olyan algoritmusokat, amelyek az adott problémára jó válaszokat adnak. Vagyis az eljárás széles körben alkalmazhatóvá teszi a rendszert. Moosbauer úgy véli,  

az MI kulcsfontosságú eszközzé válik a matematika és az informatika területén. 

Egy új kutatási irány folytatása 

Az AlphaEvolve a DeepMind korábbi fejlesztéseire épít. 2022-ben az AlphaTensor egy gyorsabb algoritmust talált a mátrixszorzásra, és megdöntött egy 50 éves rekordot. Egy évre rá az AlphaDev olyan hatékonyabb alapműveleteket fedezett fel, amelyeket a számítógépek trilliószor hajtanak végre naponta. 2023 végén érkezett a FunSearch, amely már LLM-et használt kódgenerálásra, és ennek segítségével egy híres, korábban megoldatlan matematikai problémát meg is oldott. Azonban míg elődje rövid kódrészleteket írt, addig a DeepMind új rendszere akár több száz soros programokat is képes generálni, így sokkal összetettebb feladatokra is alkalmazható. 

A természetes kiválasztódás logikája alapján 

Az AlphaEvolve működése hasonló az evolúciós algoritmusokéhoz, vagyis a felhasználó leírja a problémát, esetleg mellékel korábbi megoldásokat is, majd a Gemini 2.0 Flash modell bevetésével többféle kódot generál. Ezeket lefuttatja, és különféle szempontok – például pontosság, gyorsaság – alapján értékel. A legjobbnak ítélt megoldásokat visszaküldi a modellnek továbbfejlesztésre, miközben időnként újra bevonja a korábbi próbálkozásokat is, hogy elkerülje a zsákutcákat. Ha a Flash-verzió nem boldogul, az erősebb – bár lassabb – Gemini 2.0 Pro is bekapcsolódhat. A folyamat pedig addig ismétlődik, amíg nem sikerül jobb megoldást generálni az előzőnél. 

A mátrixszorzás esete 

A fejlesztők többféle problémán is tesztelték az AlphaEvolve-ot. Visszatértek például a mátrixszorzáshoz, hogy kiderüljön, mire képes egy általános célú eszköz a speciális AlphaTensorhoz képest. A mátrixszorzás a számítástechnika egyik legalapvetőbb művelete, mégis a mai napig nem ismert a leghatékonyabb megoldása. AlphaEvolve nemcsak hogy gyorsabb algoritmusokat talált 14 különféle mátrixmérethez, de az AlphaTensor korábbi rekordját is megdöntötte egy 4×4-es mátrix esetében. A rendszer 16 ezer lehetséges megoldást értékelt ki, mégis hatékonyabbnak bizonyult elődjénél, ráadásul nemcsak 0-kat és 1-eket tartalmazó mátrixokon működik, hanem általános számértékekkel is. 

Moosbauer szerint ez az eredmény lenyűgöző, és hasonlóan vélekedik a linzi Johannes Kepler Egyetem matematikusa, Manuel Kauers is, aki szerint ezek az új algoritmusok a gyakorlati alkalmazásokban szintén jelentős gyorsulást hozhatnak. 

Valódi alkalmazásokban is helytáll 

A mátrixszorzás csak az egyik terület, ahol sikeresen működött ez a megoldás. A DeepMind több mint 50 ismert matematikai problémán is tesztelte az AlphaEvolve-ot, például Fourier-analízisben, az ún. minimum overlap (Paul Erdős 1955-ös felvetésén) vagy a kissing number problémán (amely Isaac Newton nevéhez fűződik). 

Az AlphaEvolve az esetek 75 százalékában a legjobb ismert megoldásokhoz hasonló eredményekre jutott, 20 százalékban pedig túl is szárnyalta azokat. 

A gyakorlati alkalmazások során is jól teljesített. A szerverelosztáson túl az algoritmusok optimalizálták a Tensor Processing Unit chipjeinek energiafelhasználását, sőt a Gemini-modellek tanításához szükséges számításokat is hatékonyabbá tették. Nehézséget csak azok a feladatok jelentenek e rendszernek, amelyek értékeléséhez emberi döntés kell – ebbe beletartoznak a laboratóriumi kísérletek. 

Moosbauer azonban felhívja a figyelmet arra is, hogy bár az AlphaEvolve új és hatékony megoldásokat talál, keveset árul el azok elméleti hátteréről – ez pedig nem segíti elő az emberi tudás bővülését. Ennek ellenére a szakértők egyetértenek abban, hogy az ilyen eszközök radikálisan átalakítják a kutatói munkát. Ahogy Pushmeet Kohli fogalmaz: „Nem értünk még a kísérletezések végére, továbbra is rengeteg lehetőség rejlik ebben a megoldásban.” 

Kapcsolódó:

Posztok hasonló témában

Heti hírlevél

Iratkozzon fel hírlevelünkre!

Minden héten megkaphatja válogatott tartalmainkat, hogy naprakész információi legyenek a világ történéseivel kapcsolatban.


Kérjük adja meg a teljes nevét.

Email címét nem osztjuk meg.

Kérdezz bátran!
Chat