Te is fiam, Google – egyre több techóriás lépi át a hadiipari korlátait – makronom.eu
2025. március 24., hétfő

Te is fiam, Google – egyre több techóriás lépi át a hadiipari korlátait 

Az Alphabet irányelvei már nem tiltják, hogy a technológiáját hadiipari célokra használják – ezzel átpasszolta a labdát a kormányoknak, mostantól az ő felelősségük azok etikus használata. 

A Google tulajdonosa, az Alphabet techvállalat közvetlenül azelőtt, hogy az előre jelzettnél alacsonyabb pénzügyi eredményről számolt be, közölte, hogy frissítette a mesterséges intelligenciával kapcsolatos etikai irányelveit, ezzel feloldotta a MI-fegyverek és megfigyelési eszközök fejlesztésére való felhasználásának régóta fennálló tilalmát. 

Demis Hassabis, a Google mesterséges intelligenciáért (MI) felelős vezetője szerint az MI-nek védenie kell a nemzetbiztonságot. A lépést alátámasztó blogbejegyzésében Hassabis és James Manyika, a vállalat technológiai és társadalmi ügyekért felelős alelnöke azt írta, hogy mivel fokozódik a globális verseny az MI vezető szerepéért, a cég úgy véli, hogy „a demokráciáknak kell vezetniük a mesterséges intelligencia fejlesztését”, mindezt a „szabadság, az egyenlőség és az emberi jogok tiszteletben tartása” által vezérelve. 

Ezen a pálforduláson nem érdemes meglepődni. Várható volt, hogy  

az MI-vel foglalkozó vállalatok biztosabb és nagyobb bevételi forrás után néznek majd, erre pedig mi sem alkalmasabb, mint a hadiipar.  

Azonban nem a Google taposta ki ezt az utat, ugyanis az OpenAI már megelőzte őt: korábban a ChatGPT vállalatának a szabályai egyértelműen tiltották, hogy bárki fegyverfejlesztésre, katonai vagy hadviselési célokra használja a modelljeit. Ez tavaly január 10-én változott meg: a The Intercept arról számolt be, hogy a cég enyhített ezeken a korlátozásokon, azt azonban továbbra is tiltotta, hogy bárki arra használja a technológiát, hogy „kárt okozzon magának vagy másoknak” fegyverek kifejlesztésével, használatával, mások megsebesítésével vagy a tulajdon elpusztításával.   

A vállalat nem sokkal később közölte, hogy ugyan együttműködik a Pentagonnal a kiberbiztonsági szoftvereken, de a fegyvereken nem. Aztán egy tavaly októberben közzétett blogbejegyzésben megosztotta, hogy nemzetbiztonsági területen dolgozik, azzal érvelve, hogy a megfelelő kezekben az MI „segíthet megvédeni az embereket, elrettenteni az ellenfeleket és akár meg is előzheti a konfliktusokat”.   

A különbség viszont az, hogy a Google nemcsak megváltoztatta irányelveit – vagy legalábbis finomította azokat –, hanem azt a részt, miszerint „mások megkárosítása nélkül is részt lehet venni egy háborúban” szinte ki is törölte – nem úgy, mint az OpenAI. Ehelyett átpasszolta a labdát a kormányoknak, hogy most már az övék a felelősség, ha a cég megoldásait nem etikusan használják. De vajon mindegyik kabinet képes ugyanúgy, ugyanolyan mértékben egyensúlyozni az etika és a MI adta lehetőségek között?  

Az elmúlt években egyre többet tudtunk meg az MI katonai potenciáljáról. Januárban a szakértők azzal érveltek, az ukrajnai konfliktus megmutatta, hogy a technológia komoly katonai előnyt nyújt a csatatéren. Ahogy a technológia egyre szélesebb körben elterjed és kifinomultabbá válik, megváltoztatja a seregek működését, a háttérirodától a frontvonalig – írta Emma Lewell-Buck képviselő, aki az Egyesült Királyság hadseregének MI-használatáról szóló jelentés vezetője volt. 

Ezt pedig – a The Guardian szerint – Izraelnek sem kell bemutatni: akták szerint a hadsereg ugyanis a Gáza elleni bombázás legintenzívebb szakaszában egyre nagyobb mértékben támaszkodott a Microsoft felhőtechnológiájára és mesterségesintelligencia-rendszereire. 

A hírek szerint a Microsoft 2023. október 7. után mélyítette el a kapcsolatát az Izraeli Védelmi Erőkkel (IDF), nagyobb számítási és tárolási szolgáltatásokkal látva el a hadsereget, és legalább 10 millió dolláros üzleteket kötve több ezer órányi technikai támogatás nyújtására.    

A felhőszolgáltatások igénybevétele még nem akkora probléma, hiszen az önmagában ártalmatlan. A drónok azonban más lapra tartoznak. Az OpenAI ragaszkodik ahhoz, hogy az irányelvei tiltják azt, hogy mások ellen alkalmazzák a technológiájukat, azonban szerintük a megfigyelő drón még belefér. De vajon egy pénzügyileg nehéz időszakban felajánlott vastag boríték, ami mégis autonóm támadóvá varázsol egy ilyen drónt? És ez nemcsak az OpenAI, de a csökkenő pénzügyi eredményekről beszámoló Google esetében is kérdés. 

Ki döntsön? 

Az MI-szakértők és -szakemberek körében vitatott, hogy a nagy teljesítményű új technológiát hogyan kellene szabályozni a csatatéren vagy akár csak a megfigyelések során. A legnagyobb aggodalmat az MI-alapú, önállóan is halálos akciókra képes fegyverek váltják ki, amelyek esetén sürgős felügyeletre van szükség. 

Egy a BBC által feldolgozott jelentés szerint Ukrajnában és a Közel-Keleten már bevetettek olyan rendszereket, ahol mesterséges intelligencia segíti a célzást, és több ország is arra törekszik, hogy ezt a technológiát integrálja a hadseregébe.  

Egy másik lehetséges forgatókönyv éppen a jelenlegi helyzet szöges ellentéte: egyesek szerint az emberek lesznek a katonák, az életről és halálról szóló döntéseket viszont a gépek hozzák meg algoritmikus számítások alapján. 

Kyle Hiebert úgynevezett független kutató és politikai kockázatelemző szerint  

a kérdés az, hogy az emberi irányítók mennyi autonómiát engednek a gépeknek  

– különösen a sokkal gyorsabb ütemben kibontakozó konfliktushelyzetekben. Az AWS-szel (Autonomous Weapons Systems, azaz autonóm fegyverrendszerek) kapcsolatban egy dologban egyetértés van: jelentősen felgyorsítják a hadviselést. 2017-ben több mint száz MI- és robotikaszakértő írt alá egy az ENSZ-nek címzett nyílt levelet, amelyben pontosan erre figyelmeztetnek. 

Kérdés az, hogy az emberek képesek lennének-e megfékezni azokat a halálos technológiákat, amelyek gyorsabban gondolkodnak, mint ők, hiszen egy nap azok talán önállóan cselekedhetnek. A Campaign to Stop Killer Robots (Kampány a gyilkos robotok megállításáért) szerint szigorú nemzetközi szabályokra van szükség az AWS elterjedésének és a visszaéléseknek a megfékezéséhez. Ezt az álláspontot tucatnyi kisebb ország, több Nobel-békedíjas, valamint számos béke- és biztonságkutató támogatja. Ezzel szemben bizonyos katonai hatalmak ellenállnak a jogilag kötelező erejű biztosítékoknak. Nagy-Britannia, Kína, India, Izrael, az USA és mások viszont a felelős felhasználás mellett érvelnek, az „ember a körforgásban” elvet hangoztatva. Ez azt jelenti, hogy az AWS-egységek döntéseit mindig egy emberi operátor felügyeli és hagyja jóvá.  

Az AWS új iterációi, vagyis ismétlődő, és azok eredményeiből folyamatosan tanuló próbálkozásai azonban máris felgyorsítják az OODA-ciklust, amelyben a megfigyelés, a tájékozódás, a döntés és a cselekvés sebessége határozza meg a támadásokat. Ráadásul az automatizálás kiszorítja az emberi ítélőképességet a feltörekvő technológia használata során. Ha ezt a két tényezőt, a fokozott sebességet és a gépekbe vetett hitet kombináljuk, akkor kérdés, hogy az AWS gyakorlati kezelőinek meglesz-e a teljes kontrollja az általuk használt fegyverek felett. 

A veszélyes autonóm drónokkal kapcsolatban az a probléma, hogy nem kell hozzá sem az OpenAI, sem a Google, vagyis nincs szükség e két nagy cég generatív MI-chatbotjára ahhoz, hogy a harctéren bevessék őket.  

Ukrán startupok például olyan drónokat fejlesztettek ki, amelyek úgy programozhatók, hogy akkor is támadjanak, ha megszakad a kapcsolatuk az emberi kezelővel. 

A mesterséges intelligencia és az autonóm fegyverrendszerek fejlődése tehát már nem a jövő, hanem a jelen. Az OpenAI és a Google lépései jól mutatják, hogy a technológiai vállalatok egyre inkább elmosódó etikai határvonalak mentén lavíroznak, miközben kormányzati és katonai együttműködések révén új piacokat keresnek. Bár hivatalosan továbbra is ragaszkodnak ahhoz, hogy az MI-fejlesztés az emberi jogok és a nemzetbiztonság védelmét szolgálja, az iparági trendek azt mutatják, hogy az MI hadiipari integrációja megállíthatatlanul halad előre. Az igazán nyugtalanító kérdés azonban nem az, hogy a techóriások milyen gyorsan és milyen mértékben hátrálnak ki a korábbi morális álláspontjaikból, hanem az, hogy ki és milyen módon fogja szabályozni ezt az egyre önállóbbá váló haditechnológiát. 

Posztok hasonló témában

Heti hírlevél

Iratkozzon fel hírlevelünkre!

Minden héten megkaphatja válogatott tartalmainkat, hogy naprakész információi legyenek a világ történéseivel kapcsolatban.


Kérjük adja meg a teljes nevét.

Email címét nem osztjuk meg.

Kérdezz bátran!
Chat