Az MI villámgyors fejlődését ma már az fogja vissza, hogy a központi és a grafikus chipek sokkal gyorsabban számolnak, mint ahogy a memória adatokat képes küldeni nekik. A megoldás a még több memória lenne, amiből viszont óriási a hiány.
A mesterséges intelligencia technikai értelemben vett fejlődését ma egy igen komoly paradoxon jellemzi: a globális MI-infrastruktúrába áramló tőke meghaladja a több száz milliárd dollárt, a technológiai haladást viszont egy alapvető, igen súlyos hardveres korlát fenyegeti, amiről kevés szó esik. Ez az úgynevezett memóriafal (memory wall) jelensége – vagyis amikor az adatátviteli sebesség elmarad a számítási kapacitás bővülésétől –, ami átrendezte a félvezetőipar erőviszonyait, illetve alapjaiban kérdőjelezheti meg az MI-szektor eddigi növekedési előrejelzését.
A processzorok számítási teljesítménye ugyanis az elmúlt évtizedekben lényegesen gyorsabban növekedett, mint a memóriához való hozzáférés sebessége és késleltetésének javulása.
Ennek következtében egyre gyakrabban fordul elő, hogy a számítás nem a rendelkezésre álló feldolgozási kapacitás, hanem az adatok elérhetősége miatt lassul: a processzor várakozik a memóriából érkező adatokra, így az elméleti csúcsteljesítményének csak egy része hasznosul. Ez persze nem új jelenség, már az 1990-es évektől kezdve ismert, és a számítógép-architektúrával foglalkozó kutatásokban széles körben elfogadott.
Technológiai vs. pénzügyi dimenzió
A memóriafal azonban elérte a mesterséges intelligencia világát is. Az MI-modellek mérete exponenciálisan nőtt az elmúlt években, és amíg például a 2019-es GPT–2-es 1,5 milliárd paramétert használt, addig a jelenlegi modellek már több ezer milliárdos architektúrákon futnak.
Például az Nvidia modern, GB200 NVL72 típusú rendszere 72 grafikus egységet (GPU-t) és 36 központi processzort (CPU-t) integrál egyetlen platformba. Ráadásul korábban teljességgel elképzelhetetlen, 130 terabájt/másodperces sávszélességgel, ami példátlan adatmozgatási sebességet igényel a memória és a processzor között.
Csakhogy amíg a modellek mérete az ezerszeresére nőtt, addig egy jobb memória is csupán 50 százalékkal több kapacitást és számítási teljesítményt nyújt chipenként. Azaz a memória-sávszélesség növekedése közel sem tartott lépést az igényekkel – dacára az úgynevezett High Bandwidth Memory (HBM)-technológia fejlődésének. Ráadásul mindezek mellett az alapvető fizikai korlátok továbbra is fennállnak.
Az ellátási lánc válsága és az árazási nyomás
E jelenséggel a gyártók sem tudnak lépést tartani, hiszen a rövid távú megoldás a több, nagyobb memória beépítése lenne a rendszerekbe, így
az MI gyors terjedése által előidézett memóriahiány az idei év közepére rekordot dönthet.
Ugyanis a gyártók kapacitásának akár a 40 százalékát az MI-hez szükséges HBM-memóriák teszik ki, ami a kínálat szűkülését, ezzel együtt árnövekedést hoz a hagyományos számítógépes memóriák piacán. Az egyik jelentős gyártó, a Micron december közepén elismerte, hogy a jelenlegi kereslet mintegy 55-60 százalékát tudja csak kielégíteni, amíg egy másik nagy memóriagyártó, a dél-koreai SK Hynix összes HBM-kibocsátását hónapok óta előre lekötötték a nagy vevők.
Ezek után nem is meglepő, hogy a Samsung és az SK Hynix a memóriák árának közel 20 százalékos emelését tervezi.
Ráadásul ez a drágulás nem is a túlkereslet, sokkal inkább a strukturális kapacitáshiány miatt következett: a HBM gyártásához körülbelül háromszor annyi alapanyagra van szükség gigabájtonként, mint a hagyományos, nem az MI-alkalmazásokban használt DDR5-rendszerűekéhez, miközben a selejt is majdnem a duplája.
Átalakul a piac szerkezete
Az MI-ágazat legnagyobb hardverszállítója az Nvidia, amelynek a kötelezettségvállalásai a memóriagyártókkal szemben 2025 közepére elérték a 45,8 milliárd dollárt. Azaz gyakorlatilag ez a cég finanszírozza a két említett memóriagyártó, az SK Hynix és a Micron kapacitásbővítését. Ez pedig gyakorlatilag stratégiai kapacitáslekötés, biztosítva az Nvidia elsőbbségét a legmodernebb HBM-moduloknál.
Közben persze a háttérben a piaci hierarchia is átrendeződik: az SK Hynix 2025 elején megtörte a szintén dél-koreai Samsung közel négy évtizedes vezető szerepét a hardveres memóriák eladása terén. Mi több, az Nvidiával való szoros partnerségének és a HBM-típusú memóriák terén elért piaci részesedésének köszönhetően, ez a részesedés mára már meghaladja a 60 százalékot.
Ráadásul az ágazati becslések szerint a dél-koreai memóriagyártók 2025 végére túlszárnyalták a tajvani chipgyártó óriás, a TSMC profitját, ami a félvezetőipar jövedelmezőségének átfordulását jelzi.
Technológiai válaszok, 2026-os kilátások
Az Nvidiának az idei év második felében várható grafikus processzora, a Rubin R100 már nem kevesebb mint 288 GB HBM-memóriával és 13 TB/másodperces sávszélességgel büszkélkedhet, ami közel 63 százalékos javulás a manapság használt HBM3E-típusúakhoz képest. A három vezető gyártó (Samsung, SK Hynix, Micron) fel is gyorsította az új típusú HBM-memóriamodulok fejlesztését, amelyek a negyedik negyedévtől kerülhetnek bele az Nvidia új hardveres MI-megoldásaiba.
A valódi áttörés azonban nem csupán a memóriaspecifikációkban rejlik. A teljes folyadékhűtéses rackszintű architektúra teljesítménye akár az 50-szeresére nőhet az MI-gyárakban a ma általánosan használt platformokhoz képest, ami azt jelzi, hogy a probléma kezelése rendszerszintű innovációt, nem csupán komponensfejlesztést igényel.
Befektetői és stratégiai következtetések
Az HBM-memória-alpiac teljes mérete várhatóan 100 milliárd dollárra nő 2028-ra a 2025-ös 35 milliárdról. Ez közel 40 százalékos éves átlagos bővülés, holott az említett 100 milliárd dolláros küszöb átlépését korábban 2030-ra várták.
Ugyanakkor a befektetők számára figyelmezetés, hogy
már nem működik az a módszer, hogy még tovább növeljük az MI-modellek méretét, mert ennek megvannak a fizikai korlátai,
sőt, a memóriahiány továbbra is megmarad – legalábbis a következő hónapokban bizonyosan.
A hosszú távú kilátások vegyes képet mutatnak. A memóriafal nem feltétlenül jelenti az MI-fejlődés végét, de megváltoztatja annak irányát: az óriásira duzzasztott rendszerek helyett a hatékonyságoptimalizálásra, az alternatív architektúrákra és a vertikálisan integrált hardver–szoftver-megoldásokra kell helyezni a hangsúlyt. Azok a vállalatok, amelyek képesek navigálni ebben az új környezetben – legyen szó memóriagyártókról, rendszerintegrálókról vagy innovatív MI-cégekről – határozzák meg a következő évtized technológiai folyamatait.
Fotó: Freepik
Kapcsolódó:

