A mesterséges intelligencia Oppenheimer-pillanata – makronom.eu
2026. április 19., vasárnap

A mesterséges intelligencia Oppenheimer-pillanata

A mesterséges intelligencia jövőjéről szóló viták leggyakrabban a technológiai kockázatokra vagy az etikai dilemmákra koncentrálnak. Az Anthropic körüli botrány azonban egy sokkal prózaibb tényezőt hozott felszínre: a hatalmat. Amikor egy technológia hadászati stratégiai jelentőségűvé válik, az ellenőrzés nem a fejlesztőké többé. Az atombomba története már megmutatta, hogyan zajlik ez a folyamat.

Nem kellett sokáig várni az első nyílt konfrontációra egy MI-vállalat és az amerikai kormányzat között. Az Anthropic és a Pentagon által kirobbantott precedensértékű konfliktus egyszerre vet fel morális, technológiai és hatalmi kérdéseket. A probléma a megjelenésének pillanatában még kezelhetőnek tűnt, néhány héten belül azonban világossá vált, hogy az ügy messze túlmutat önmagán. Egy amerikai technológiai vállalat először próbálta érdemben korlátozni, hogy az állam mire használhatja a technológiáját az állam pedig erre a saját nemzetbiztonsági eszközeinek demonstratív alkalmazásával válaszolt.

A történet háttere 2025 nyaráig nyúlik vissza, amikor a Pentagon több vezető MI-vállalattal – köztük az Anthropickal, az OpenAI-jal és a Google-lel – kötött kísérleti szerződéseket a legújabb mesterségesintelligencia-rendszerek katonai alkalmazásainak tesztelésére. Az Anthropickal aláírt megállapodás felső értékhatára mintegy 200 millió dollár volt, és lehetővé tette, hogy a cég Claude nevű modelljét a nemzetbiztonsági infrastruktúrában, titkosított hálózatokon és a nemzeti laboratóriumokban is teszteljék. A Pentagon különböző feladatokra használta a rendszert: hírszerzési elemzésre, hadműveleti tervezésre és modellezésre, valamint kiberműveletek támogatására. A Claude több katonai platformba is beépült, köztük a hírszerzési célpont-azonosítást segítő Maven-rendszerbe. Ez a fajta együttműködés nem volt rendkívüli, hiszen a 2020-as évek közepére a mesterséges intelligencia az amerikai védelmi stratégia egyik kulcsfontosságú technológiai pillérévé vált, a Pentagon pedig egyre inkább a Szilícium-völgyre támaszkodott az innováció terén. A kapcsolat azonban mindig is ambivalens volt: a technológiai vállalatok közül több is igyekezett korlátozni, hogy a rendszereiket milyen katonai célokra lehessen használni.

A konfliktus ez év januárjában eszkalálódott, amikor a védelmi minisztérium egy új mesterségesintelligencia-stratégiai feljegyzést adott ki. A dokumentum előírta, hogy minden jövőbeli szerződésben szerepelnie kell egy általános tételnek, amely lehetővé teszi, hogy a Pentagon a technológiát „bármilyen jogszerű célra” felhasználhassa. Ez a látszólag technikai megfogalmazás azonban éles ellentétben állt az Anthropic szerződéses és etikai korlátozásaival, amelyek tiltották a modell alkalmazását teljesen autonóm fegyverek fejlesztésére vagy tömeges belföldi megfigyelési rendszerek létrehozására. Február végén a Pentagon ultimátumot adott a vállalatnak. Pete Hegseth hadügyminiszter azt követelte, hogy az Anthropic távolítsa el a Claude modell használatára vonatkozó korlátozásokat a védelmi szerződésekből. A minisztérium álláspontja szerint

a kormánynak kell meghatároznia, hogy mi számít törvényes és legitim katonai felhasználásnak, egy magáncég pedig nem szabhat határt az állami műveleteknek.

Az Anthropic vezetése azonban nem hátrált meg, a vállalat vezérigazgatója, Dario Amodei nyilatkozatban közölte, hogy a cég etikai okokból nem fogja eltávolítani a korlátozásokat. Bár elismerte, hogy a mesterséges intelligencia hasznos lehet hírszerzési vagy védelmi műveletek támogatásában, de szerinte bizonyos alkalmazásai – különösen a teljesen autonóm fegyverrendszerek és a tömeges belföldi megfigyelés tekintetében – olyan kockázatokat hordoznak, amelyek jelenleg túlmutatnak a technológia biztonságos használatának a határain. A vezérigazgató szerint az MI által vezérelt megfigyelési infrastruktúra új típusú veszélyt jelenthet a demokratikus szabadságjogokra, különösen egy olyan környezetben, ahol a jogi szabályozás még nem követte a technológiai fejlődést.

A Pentagon válasza gyors és kemény volt: a védelmi minisztérium bejelentette, hogy az Anthropicot nemzetbiztonsági okokból „ellátásilánc-kockázatnak” minősíti – olyan kategóriába sorolva a céget, amelyet korábban elsősorban külföldi technológiai vállalatok, például a Huawei ellen alkalmazott. A lépés gyakorlatilag azt jelenti, hogy a szövetségi ügynökségek és a katonai beszállítók nem köthetnek szerződést a vállalattal, a meglévőket fel kell bontaniuk, ezenkívül igazolniuk kell, hogy a rendszereikben nem használják az Anthropic technológiáját.

A döntés azonnal hullámokat vert az egész iparágban. Az Anthropic jogi csapata szerint a kormány túllépte a hatáskörét, és politikai megtorlást alkalmazott a vállalattal szemben, amely nyilvánosan vitatta a katonai MI-használat határait. A cég beperelte a Pentagont és Hegseth minisztert, azt kérve a szövetségi bíróságoktól, hogy semmisítsék meg a rendeletet. A kereset alapján az intézkedés sérti a vállalat alkotmányos jogait, sőt veszélyes precedenst teremt azzal, hogy

az állam gazdasági eszközökkel bünteti a technológiai cégeket a szakmai álláspontjuk miatt.

Közben a vita egyre inkább politikai színezetet kapott: a Fehér Ház szerint az amerikai hadsereg nem engedheti meg, hogy „ideológiai alapon működő techcégek” korlátozzák a katonai műveleteket. A kormányzat kizárólag azt kérte, hogy a Claude modellt minden törvényes célra lehessen használni, a döntési jog pedig a demokratikusan megválasztott politikai vezetés kezében legyen – mondták. Az iráni konfliktus különösen tragikomikus helyzetet teremtett: miközben a Pentagon formálisan megpróbálta kiszorítani az Anthropicot a védelmi ökoszisztémából, addig a vállalat technológiája több katonai rendszerben is benne maradt. A hírszerzési és hadműveleti tervezési platformok – köztük a Maven – továbbra is használták a Claude bizonyos funkcióit, mivel ezek lecserélése hónapokat igényelt volna. Olyannyira, hogy az Irán elleni háború kirobbanásakor a főszerepet a Claude játszotta.

Az Anthropic-ügy gyorsan felszínre hozta a technológiai ipar és az állam közötti hatalmi viszony alapvető kérdését: ki határozza meg egy stratégiai technológia felhasználásának határait, illetve milyen mozgástere marad egy magánvállalatnak, amikor a rendszerei a nemzetbiztonsági infrastruktúra részévé válnak?

Út a háborúba

A konfliktus kirobbanásához vezető út évekkel ezelőtt kezdődött azzal a folyamattal, amelynek célja a hadsereg digitális és adatvezérelt átalakítása volt. Ennek egyik legismertebb példája a Pentagon hírszerzési elemzőrendszere, a már említett Maven volt, amely mesterséges intelligenciát használt drónfelvételek és más felderítési adatok automatikus feldolgozására. A modern hadviselésben az információ mennyisége már messze meghaladta az emberi elemzők kapacitását, a Maven célja éppen az volt, hogy a gépi tanulás segítségével felgyorsítsa a célpont-azonosítást és a hadműveleti döntéshozatalt.

A kezdeti kísérletek után a Pentagon egyre szélesebb körben próbálta integrálni az MI-t a katonai infrastruktúrába. Az alkalmazása olyan technológiát és rendszerszintű áttörést jelentett, amely a hadviselés minden aspektusát átalakíthatja, a hírszerzéstől a logisztikán át a fegyverrendszerek irányításáig. A Pentagon többször hangsúlyozta, hogy a mesterséges intelligencia kulcsfontosságú eszköz lesz a nagyhatalmi versenyben, különösen Kína technológiai képességeinek növekedése miatt. Az MI így villámgyorsan bekerült azon technológiák sorába – például a hiperszonikus fegyverek vagy a kvantumszámítógépek mellé –, amelyeket a stratégiai fölény megőrzése és a nemzetbiztonság szempontjából kritikusnak tartanak.

Az amerikai kormányzat számára természetes lépésnek tűnt a Szilícium-völggyel kialakított szorosabb együttműködés. A hagyományos védelmi beszállítók – mint a Lockheed Martin vagy a Northrop Grumman – mellett egyre nagyobb szerepet kaptak a szoftver- és MI-fejlesztő vállalatok. A mesterséges intelligencia robbanásszerű fejlődése után

a Pentagon külön programokat indított annak érdekében, hogy a legfejlettebb modelleket katonai környezetben tesztelje.

Így született meg az a szerződéses keretrendszer, amelybe az Anthropic mellett több vezető MI-labor – például az OpenAI, a Google és az xAI – is bekerült, és az Anthropic technológiája különösen fontos szerepet kapott ebben. A cég Claude nevű modelljét titkosított katonai hálózatokon futtatták, és többféle feladatra alkalmazták – a hírszerzési adatok elemzésétől kezdve a hadműveleti szimulációkig. Ez magyarázza azt a paradox, az iráni háborúban is kialakult helyzetet, hogy miközben a Pentagon nemzetbiztonsági kockázatnak minősítette a vállalatot, annak technológiája nélkülözhetetlenné vált a katonai rendszerekben. Egy ilyen infrastruktúra lecserélése hónapokig tart, mivel az adatáramlási rendszereket, a modellekhez kapcsolódó interfészeket és a hírszerzési hálózatok integrációját is újra kell konfigurálni.

A helyzetet tovább bonyolította az iparági verseny. Amint az Anthropic konfliktusba került a Pentagonnal, a riválisai gyorsan pozícióba kerültek. Az OpenAI például röviddel a tárgyalások összeomlása után új megállapodást jelentett be a Pentagonnal való együttműködéséről. A vállalat azt állította, hogy sikerült elfogadtatnia bizonyos biztonsági garanciákat, miközben beleegyezett a védelmi minisztérium által megkövetelt „jogszerű felhasználás” kitételbe.

A cégalapító filozófiája abból indul ki, hogy a fejlett mesterségesintelligencia-rendszereket szigorú biztonsági és etikai korlátok mellett kell fejleszteni és alkalmazni. A probléma innentől egy sokkal komolyabb kérdést vetett fel: azt, hogy egy stratégiai technológia fejlesztője képes-e valódi kontrollt gyakorolni a felhasználása felett, amikor az állam a nemzetbiztonságra hivatkozik. Ez a dilemma vezet el ahhoz a morális, üzleti és filozófiai vitához, amely a mesterséges intelligencia fejlődésével egyre gyakrabban kerül elő a szakmai és politikai berkekben. A modern MI-rendszerek potenciális hatása sok elemző szerint csak egyetlen történelmi technológiai fordulóponthoz hasonlítható: ahhoz a pillanathoz, amikor a második világháború idején megszületett az atombomba.

Én lettem a halál, világok pusztítója

Az Oppenheimer-pillanat az a momentum, amikor egy radikálisan új technológia fejlesztői szembesülnek azzal, hogy az általuk létrehozott eszköz fölött a politikai hatalom hamarabb szerzi meg az ellenőrzést, mint ők maguk. A modern technológiatörténetben ennek talán legismertebb példája az atomfegyver születése volt a Manhattan-projekt idején. Az Anthropic vezetője maga is gyakran von párhuzamot a jelenlegi eseményekkel és az atomfegyverrel.

Két évvel ezelőtt Amodei a Machines of Loving Grace című esszéjében egy optimista MI-jövőt vázol fel, amelyben a mesterséges intelligencia felgyorsítja a civilizáció tudományos fejlődését. Az úgynevezett „polihisztor MI-k” – emberfeletti problémamegoldó rendszerek – képesek lennének évtizedek tudományos munkáját hónapok alatt elvégezni. A jövőkép szerint a 2030-as évek közepére akár a 22. századra várt tudományos eredmények is megjelenhetnek: új gyógyszerek, a rák gyógyítása, sőt az emberi élettartam radikális meghosszabbítása. Ez az optimizmus azonban már az atomkor hajnalán is ismerős volt. A nukleáris technológia elméleti úttörői közül többen hasonló jövőt képzeltek el. A korai atomkor technológiai utópiái szinte határtalan lehetőségeket vázoltak fel. Teller Ede – a hidrogénbomba egyik atyja – például komolyan javasolta, hogy nukleáris robbanásokkal alakítsák át a földrajzi környezetet: csatornákat robbantsanak hegyeken keresztül vagy folyókat tereljenek másfelé. Az atomenergia körüli optimizmus a hidegháború elején odáig jutott, hogy az amerikai autóipar atomreaktorral hajtott családi autókat képzelt el. A projekt természetesen soha nem jutott el a megvalósításig, de jól mutatta a korszak technológiai lelkesedését. A valóság végül sokkal prózaibb lett. Az atomenergia valóban új korszakot nyitott, de nem úgy, ahogyan elképzelték. A nukleáris technológia gazdasági és biztonsági költségei hatalmasnak bizonyultak, a fegyverkezési verseny pedig új geopolitikai kockázatokat hozott létre. A világot végül nem az atomenergia bősége, hanem az atomfegyverek egyensúlya formálta. A hidegháború csúcspontján az Egyesült Államok és a Szovjetunió több tízezer nukleáris robbanófejet halmozott fel, a fegyverkezési logika pedig csak részben mérséklődött a későbbi leszerelési szerződésekkel.

A Los Alamos-i kutatók a kísérleti robbantások után gyorsan ráébredtek, hogy a döntések többé nem az ő kezükben vannak. A Japánban bevetett két bombáról a tudósokat már nem kérdezték meg.

A technológia feletti kontroll valójában abban a pillanatban elveszett számukra, amikor a fegyver működőképessé vált.

Ugyanez az elv kezd kirajzolódni a mesterséges intelligencia esetében is. A nagy nyelvi modellek még messze vannak az emberfeletti intelligenciától, de már most kulcsszerepet játszanak a katonai infrastruktúrában, a hírszerzésben és a hadműveleti tervezésben. Az Anthropic és a Pentagon konfliktusa egy technológiai korszak első nyílt hatalmi csatája, amely megmutatta, milyen gyorsan válhat egy kutatólabor terméke geopolitikai eszközzé. A mesterséges intelligencia fejlesztői még ma is vitatkoznak a technológia szabályozásáról, arról, hogy milyen etikai elvek mentén kellene működtetni – és hogy ki dönthet a felhasználásáról. A történelem azonban azt bizonyítja, hogy amikor egy technológia stratégiai jelentőségűvé válik, a döntések soha nem maradnak a mérnökök és kutatók kezében, helyettük a politikai hatalom szintjén születnek meg. A mesterséges intelligencia története ilyen szempontból valóban az atomkor történetét kezdte el újraírni – hasonlóan súlyos felelősségi kérdéseket vetve fel.

***

Kapcsolódó:

Posztok hasonló témában

Heti hírlevél

Iratkozzon fel hírlevelünkre!

Minden héten megkaphatja válogatott tartalmainkat, hogy naprakész információi legyenek a világ történéseivel kapcsolatban.


Kérjük adja meg a teljes nevét.

Email címét nem osztjuk meg.

Videó

Hét ábrája

Partnereink

Kérdezz bátran!
Chat