Az Amazon igyekszik az Nvidia nagy teljesítményű chipjeihez hasonlót létrehozni, hogy csökkentse a költségeket, és persze a vállalattól való függőségét.
Az Amazon készen áll legújabb mesterségesintelligencia (MI)-chipjeinek bevezetésére, amellyel igyekszik csökkenteni a piacvezető Nvidiától való függőségét. A cég felhőalapú számítástechnikai részlegének vezetői nagy összegeket költenek egyedi chipekre annak reményében, hogy azokkal növelik az adatközpontok hatékonyságát, ami végső soron csökkenti a saját és az Amazon Web Services (AWS) ügyfeleinek a költségeit.
A fejlesztés élén egy austini székhelyű chipgyártó startup, az Annapurna Labs áll, amelyet az Amazon 2015 elején 350 millió dollárért vásárolt meg. Az Annapurna legújabb munkáját várhatóan a jövő hónapban mutatják be, emellett az Amazon bejelenti a Trainium 2 széles körű elérhetőségét, amely egy, a legnagyobb modellek képzését célzó MI-chip. A Trainium 2-t már teszteli az Anthropic – az OpenAI versenytársa, amely 4 milliárd dolláros támogatást kapott az Amazontól –, valamint a Databricks, a Deutsche Telekom, a japán Ricoh és a Stockmark.
Az AWS és az Annapurna célja, hogy felvegye a versenyt az Nvidiával, a világ egyik legértékesebb vállalatával. Dave Brown, az AWS számítási és hálózati szolgáltatásokért felelős alelnöke elmondta, hogy meg akarják előzni vetélytársukat, ugyanakkor kiemelte, hogy mégiscsak az egészséges, ha vannak alternatívák.
Az Amazon részéről elmondták, hogy az Inferentia, a speciális MI-chipek egy másik sorozata már 40 százalékkal kevesebb erőforrást használ a válaszok előállításához. És mint azt Gadi Hutt, a cég üzleti fejlesztést vezető igazgatója hozzátette, ez az arány több tízmillió dollár esetében igencsak számottevő költségcsökkentést jelent.
A vállalat mintegy 75 milliárd dollárnyi tőkeköltséggel számol az idén, amelynek nagy részét a technológiai infrastruktúrára fordítja. A vállalat legutóbbi eredménybeszámolóján Andy Jassy vezérigazgató azt mondta, hogy várakozásai szerint cége jövőre még többet fog költeni. Pedig már az idei összeg is ugrásszerű növekedés a 2023-as 48,4 milliárdhoz képest.
Mindenki saját MI-chipet szeretne
A legnagyobb felhőszolgáltatók hatalmas pénzeket fordítanak a mesterséges intelligenciába. Az Amazon, a Microsoft és a Meta is az Nvidia nagy ügyfele, mégis saját adatközponti chipeket terveznek. Többek között azért, mivel a saját gyártásúnak alacsonyabb az előállítási költsége, nagyobb az árrése, valamint nagyobb kontrolljuk van a kínálat felett. Rami Sinno, az Annapurna mérnöki igazgatója hozzátette, hogy ez nem csupán a chipekre, de az egész rendszerre értendő.
Az Amazon MI-infrastruktúrája esetében ez azt jelenti, hogy mindent az alapoktól kezdve kell megépíteni, saját szoftverekkel – nem egyszerű feladat, de nem lehetetlen.
Az Annapurna kezdetben egy Nitro nevű biztonsági chipet épített az AWS számára, azóta viszont kifejlesztette a Graviton több generációját, az Arm-alapú központi feldolgozóegységeit, amelyek alacsony fogyasztású alternatívát jelentenek az Intel vagy az AMD által biztosítottakhoz képest. Azonban ami az AWS-chipek teljesítményét illeti az Nvidia megoldásaival szemben, arról nincsenek információk, mivel az Amazon kerüli a közvetlen összehasonlításokat, és nem nyújtja be a chipjeit független teljesítménytesztekre.
Nehéz lesz megingatni az Nvidiát
Az Nvidia sikere évek óta töretlen: az idei pénzügyi évben 60,9 milliárd dolláros bevételt könyvelhetett el, szemben a 2023-as 27 milliárddal. Ez a növekedés részben az MI iránti növekvő keresletnek köszönhető, mivel számos iparág, beleértve az adatközpontok, az autóipar és a felhőalapú szolgáltatások területét, jelentős beruházásokat eszközöl MI-alapú fejlesztésekbe, méghozzá a cég által biztosított csúcstechnológiai hardverek felhasználásával.
Az Nvidia termékei közül a H100 és a B200 GPU-k rendkívül népszerűvé váltak a mesterséges intelligencia alkalmazásai körében, különösen a generatív MI területén, ahol az algoritmusok óriási számítási kapacitást igényelnek. A vállalat sikerének egyik fontos tényezője az új üzleti szegmensek gyors növekedése is: a hagyományosan a videókártyák piacán meghatározó vállalat már nem csupán a gaming szektorra támaszkodik: az adatközpontok és a vállalati számítástechnika területén is növekszik a jelenléte. Az Amazon, a Microsoft és a Google mellett más technológiai óriások is az Nvidia hardvereire alapozzák a saját MI-megoldásaikat, hiszen az általa előállított chipek képesek a legkomplexebb gépi tanulási és mélytanulási modellek futtatására.
A cégnél kiemelt figyelmet fordítanak a kutatás-fejlesztésre, hogy továbbra is az élvonalban maradjanak. Stratégiai beruházások és szoros partneri kapcsolatok révén biztosítják, hogy az innovációik ne csak a versenyképességükkel tűnjenek ki, hanem az iparág irányadó termékeiként tartsák őket számon. Ennek eredményeként az Nvidia a mesterségesintelligencia-szektorban az egyik legmegbízhatóbb és leghatékonyabb hardvergyártóvá vált, és ahogy említettük, az egyre gyorsuló MI-boom során is kulcsszerepet játszanak a termékei, amivel sikeresen megerősítette pozícióját az iparágban.
A versenytársak nem adják fel
Az Nvidiának azért akadnak versenytársai is, ugyanis egyre több riválisa fejleszti intenzíven a saját, mesterségesintelligencia-alkalmazásokhoz optimalizált chipjeit. Az AMD, amely hagyományosan a legfőbb konkurensének számít a grafikus processzorok piacán, az idén mutatta be a MI300-ast, egy kifejezetten mesterségesintelligencia- és gépi tanulási feladatokhoz tervezett chipet.
Ennek a különleges kialakítása lehetővé teszi az MI-modellek gyorsabb és hatékonyabb futtatását, ami különösen fontos az MI-boom idején, amikor a piac egyre inkább a specifikusan tervezett chipek irányába mozdul el. Az AMD az MI300-at a nagy teljesítményű számítástechnikai (HPC) és felhőszolgáltatók számára optimalizálta, amelyek az MI-feladatok egyre növekvő mennyiségű számítási kapacitását igénylik. Az AMD-chipek megjelenése hozzájárulhat egy sokszínűbb és versenyképesebb környezet kialakulásához, ami hosszú távon az Nvidia piaci részesedésére is hatással lehet, csökkentve a kizárólagosságot és új alternatívákat kínálva a felhasználóknak.
Hasonlóképpen az Intel is komoly beruházásokat eszközöl MI-chipek fejlesztésébe, különösen a saját adatközponti és vállalati ügyfelei számára. A cég új generációs processzorainak és GPU-inak a célja, hogy a különböző MI-alkalmazások számára biztosítsanak alternatívát. Az idén bemutatták a Gaudi MI-gyorsító chipeket, amelyek hatékonyabban képesek futtatni a nagy nyelvi modelleket és más MI-alkalmazásokat. A Gaudi 3 chipet úgy tervezték, hogy felvegye a versenyt az Nvidia H100 processzorával, és egyes feladatokban akár 50 százalékkal gyorsabb teljesítményt nyújtson.
Az adatközpontokhoz szánt MI-chipek teljes piaca 2023-ban 17,7 milliárd dollár volt, ebből az Nvidia piaci részesedése 65, az Intelé 22, az AMD-é 11 százalékot tett ki, míg a többieké kevesebb mint 3 százalék volt. Egy év alatt azonban sokat változtak az arányok, a Mizuho Securities becslése szerint az Nvidia az idén az MI-chipek piacának a 70–95 százalékát birtokolja.
Kapcsolódó: