Újabb modellt adott ki a Meta – makronom.eu
2025. február 8., szombat

Újabb modellt adott ki a Meta 

Emberére talál a ChatGPT? 

Az új Llama 3 modell nyolc nyelven képes beszélgetni, az eddiginél jobb minőségű kódot ír és már összetettebb matematikai feladatokat is megold – közölte a Facebook anyavállalata a megjelenést bejelentő blogbejegyzésekben. A maga 405 milliárd paraméterével jóval nagyobb az előző verzióknál, bár még mindig kisebb, mint a versenytársak által kínált vezető modellek. Az OpenAI GPT-4 modellje ezzel szemben a hírek szerint egybillió paraméterrel rendelkezik, az Amazon pedig egy 2 ezermilliárd paramétert tartalmazó modellt készít – adta hírül a Reuters. 

Mark Zuckerberg szerint a jövő évi Llama modellek várhatóan megelőzik a saját fejlesztésű versenytársakat.  

Hozzátette, hogy a Meta AI chatbot, amelyet ezek a modellek hajtanak, az év végére a legnépszerűbb mesterségesintelligencia-asszisztenssé válhat. A 405 milliárd paraméteres modellje mellett a Meta a tavasszal bemutatott gyengébb, 8 milliárd és 70 milliárd paraméteres Llama 3 modellek frissített változatát is piacra dobja. Mindhárom modell többnyelvű, valamint sokkal nagyobb kód- vagy kontextusmennyiséget is képes kezelni, ami a Meta generatív MI vezetője, Ahmad Al-Dahle szerint különösen a kódgenerálásban lesz érezhető. Emellett a Meta azt ígéri, hogy a matematikai feladatokban is előrelépést tapasztalhatunk majd. A Meta hivatalos közleményében arra is kitér, hogy külön szűrőket alkalmaznak arra, hogy a modell kiszűrje a kiugró értékeket, ami csökkenti a tévedési esélyeket.  

https://twitter.com/AIatMeta/status/1815766327463907421

A Meta munkatársai a bejelentő videójában kiemelték, hogy a maga 405 milliárd paraméterével ez a modell a legnagyobb az open-source, azaz nyílt forráskódú modellek közül, amely nemcsak az EU-s átláthatósági követelményeknek felel meg, de fejlesztők, kutatók és más szakemberek közösen dolgozhatnak a modell továbbfejlesztésén, a hibajavításokon és új funkciók hozzáadásán. Ez gyorsabb fejlődést és magasabb szintű megbízhatóságot eredményezhet. 

Emellett a LLaMA 3.1 modellt integrálják többek között a Grokba és az AWS-be (Amazon Web Services). A Grokban az MI-asszisztens szerepét fogja betölteni, míg az AWS-en keresztül használható különböző MI-alkalmazások fejlesztéséhez és skálázásához. Az AWS-en az LLaMA 3.1 modellek használatával a fejlesztők hatékonyan építhetnek és telepíthetnek generatív MI-alkalmazásokat, kihasználva a modell fejlett képességeit és a felhőalapú infrastruktúra előnyeit. 

Megéri a befektetett munka? 

A technológiai vállalatok igyekeznek bizonyítani, hogy a befektetett erőforrások meg fognak térülni.  A Meta vezető mesterségesintelligencia-kutatója viszont azt mondta, hogy szerinte az ilyen modellek egy idő után korlátokba fognak ütközni, és más típusú MI-rendszerekre lesz szükség az áttörések eléréséhez. Azonban hatalmas erőforráshasználatról beszélünk. A Nemzetközi Energiaügynökség becslése szerint  

az adatközpontok teljes villamosenergia-fogyasztása a 2022-es szintről 2026-ra megduplázódhat, 1000 TWh-ra, ami nagyjából Japán villamosenergia-igényének felel meg.   

A nagy techvállalatok célul tűzték ki, hogy csökkentsék az ökológiai lábnyomukat, azonban a mesterséges intelligencia mögött álló energiaigényes adatközpontok némiképp hátráltalják ezt a folyamatot. A Google például nemrég nyilvánosságra hozta, hogy az üvegházhatású gázkibocsátásuk az elmúlt öt évben 48 százalékkal nőtt.  

A Google szerint a növekedés elsődleges oka az adatközpontok áramfogyasztása és a beszállítói lánc kibocsátása volt. Az éves környezetvédelmi jelentésében azt is közzétette, hogy a 2023-as emissziója 13 százalékkal emelkedett az előző évhez képest, elérve a 14,3 millió tonnát.  

A technológiai vállalat – amely jelentős összegeket invesztál a mesterséges intelligenciába – részéről elmondták, hogy „rendkívül ambiciózus” céljuk a nettó nulla kibocsátás elérése 2030-ra. Ám hozzátették, hogy ez nem lesz könnyű. A The Guardian szerint a Google kibocsátása közel 50 százalékkal nőtt 2019 óta.  

A SemiAnalysis kutatócég számításai szerint 2030-ra az adatközpontok a globális energiatermelés 4,5 százalékát fogják felhasználni. 

Azonban a szakértők úgy vélik, hogy a mesterséges intelligencia hosszú távon javíthatja az energiagazdálkodást és ezzel együtt gyorsíthatja a zöldátállást. Az intelligens algoritmusok folyamatosan elemzik az adatközpontok működését, optimalizálva az energiafelhasználást és csökkentve a szén-dioxid-kibocsátást. Például a hűtési rendszerek prediktív elemzése révén valós időben állíthatók be a hűtési igények, ami jelentős energiamegtakarítást eredményezhet. Ezenkívül a megújuló energiaforrások, mint a szél- és napenergia, kihasználása is hozzájárul az energiahatékonyság javításához, csökkentve a fosszilis tüzelőanyagoktól való függőséget. 

Borítókép: Dreamstime

Posztok hasonló témában

Heti hírlevél

Iratkozzon fel hírlevelünkre!

Minden héten megkaphatja válogatott tartalmainkat, hogy naprakész információi legyenek a világ történéseivel kapcsolatban.


Kérjük adja meg a teljes nevét.

Email címét nem osztjuk meg.

Kérdezz bátran!
Chat