Az Alphabet irányelvei már nem tiltják, hogy a technológiáját hadiipari célokra használják – ezzel átpasszolta a labdát a kormányoknak, mostantól az ő felelősségük azok etikus használata.
A Google tulajdonosa, az Alphabet techvállalat közvetlenül azelőtt, hogy az előre jelzettnél alacsonyabb pénzügyi eredményről számolt be, közölte, hogy frissítette a mesterséges intelligenciával kapcsolatos etikai irányelveit, ezzel feloldotta a MI-fegyverek és megfigyelési eszközök fejlesztésére való felhasználásának régóta fennálló tilalmát.
Demis Hassabis, a Google mesterséges intelligenciáért (MI) felelős vezetője szerint az MI-nek védenie kell a nemzetbiztonságot. A lépést alátámasztó blogbejegyzésében Hassabis és James Manyika, a vállalat technológiai és társadalmi ügyekért felelős alelnöke azt írta, hogy mivel fokozódik a globális verseny az MI vezető szerepéért, a cég úgy véli, hogy „a demokráciáknak kell vezetniük a mesterséges intelligencia fejlesztését”, mindezt a „szabadság, az egyenlőség és az emberi jogok tiszteletben tartása” által vezérelve.
Ezen a pálforduláson nem érdemes meglepődni. Várható volt, hogy
az MI-vel foglalkozó vállalatok biztosabb és nagyobb bevételi forrás után néznek majd, erre pedig mi sem alkalmasabb, mint a hadiipar.
Azonban nem a Google taposta ki ezt az utat, ugyanis az OpenAI már megelőzte őt: korábban a ChatGPT vállalatának a szabályai egyértelműen tiltották, hogy bárki fegyverfejlesztésre, katonai vagy hadviselési célokra használja a modelljeit. Ez tavaly január 10-én változott meg: a The Intercept arról számolt be, hogy a cég enyhített ezeken a korlátozásokon, azt azonban továbbra is tiltotta, hogy bárki arra használja a technológiát, hogy „kárt okozzon magának vagy másoknak” fegyverek kifejlesztésével, használatával, mások megsebesítésével vagy a tulajdon elpusztításával.
A vállalat nem sokkal később közölte, hogy ugyan együttműködik a Pentagonnal a kiberbiztonsági szoftvereken, de a fegyvereken nem. Aztán egy tavaly októberben közzétett blogbejegyzésben megosztotta, hogy nemzetbiztonsági területen dolgozik, azzal érvelve, hogy a megfelelő kezekben az MI „segíthet megvédeni az embereket, elrettenteni az ellenfeleket és akár meg is előzheti a konfliktusokat”.
A különbség viszont az, hogy a Google nemcsak megváltoztatta irányelveit – vagy legalábbis finomította azokat –, hanem azt a részt, miszerint „mások megkárosítása nélkül is részt lehet venni egy háborúban” szinte ki is törölte – nem úgy, mint az OpenAI. Ehelyett átpasszolta a labdát a kormányoknak, hogy most már az övék a felelősség, ha a cég megoldásait nem etikusan használják. De vajon mindegyik kabinet képes ugyanúgy, ugyanolyan mértékben egyensúlyozni az etika és a MI adta lehetőségek között?
Az elmúlt években egyre többet tudtunk meg az MI katonai potenciáljáról. Januárban a szakértők azzal érveltek, az ukrajnai konfliktus megmutatta, hogy a technológia komoly katonai előnyt nyújt a csatatéren. Ahogy a technológia egyre szélesebb körben elterjed és kifinomultabbá válik, megváltoztatja a seregek működését, a háttérirodától a frontvonalig – írta Emma Lewell-Buck képviselő, aki az Egyesült Királyság hadseregének MI-használatáról szóló jelentés vezetője volt.
Ezt pedig – a The Guardian szerint – Izraelnek sem kell bemutatni: akták szerint a hadsereg ugyanis a Gáza elleni bombázás legintenzívebb szakaszában egyre nagyobb mértékben támaszkodott a Microsoft felhőtechnológiájára és mesterségesintelligencia-rendszereire.
A hírek szerint a Microsoft 2023. október 7. után mélyítette el a kapcsolatát az Izraeli Védelmi Erőkkel (IDF), nagyobb számítási és tárolási szolgáltatásokkal látva el a hadsereget, és legalább 10 millió dolláros üzleteket kötve több ezer órányi technikai támogatás nyújtására.
A felhőszolgáltatások igénybevétele még nem akkora probléma, hiszen az önmagában ártalmatlan. A drónok azonban más lapra tartoznak. Az OpenAI ragaszkodik ahhoz, hogy az irányelvei tiltják azt, hogy mások ellen alkalmazzák a technológiájukat, azonban szerintük a megfigyelő drón még belefér. De vajon egy pénzügyileg nehéz időszakban felajánlott vastag boríték, ami mégis autonóm támadóvá varázsol egy ilyen drónt? És ez nemcsak az OpenAI, de a csökkenő pénzügyi eredményekről beszámoló Google esetében is kérdés.
Ki döntsön?
Az MI-szakértők és -szakemberek körében vitatott, hogy a nagy teljesítményű új technológiát hogyan kellene szabályozni a csatatéren vagy akár csak a megfigyelések során. A legnagyobb aggodalmat az MI-alapú, önállóan is halálos akciókra képes fegyverek váltják ki, amelyek esetén sürgős felügyeletre van szükség.
Egy a BBC által feldolgozott jelentés szerint Ukrajnában és a Közel-Keleten már bevetettek olyan rendszereket, ahol mesterséges intelligencia segíti a célzást, és több ország is arra törekszik, hogy ezt a technológiát integrálja a hadseregébe.
Egy másik lehetséges forgatókönyv éppen a jelenlegi helyzet szöges ellentéte: egyesek szerint az emberek lesznek a katonák, az életről és halálról szóló döntéseket viszont a gépek hozzák meg algoritmikus számítások alapján.
Kyle Hiebert úgynevezett független kutató és politikai kockázatelemző szerint
a kérdés az, hogy az emberi irányítók mennyi autonómiát engednek a gépeknek
– különösen a sokkal gyorsabb ütemben kibontakozó konfliktushelyzetekben. Az AWS-szel (Autonomous Weapons Systems, azaz autonóm fegyverrendszerek) kapcsolatban egy dologban egyetértés van: jelentősen felgyorsítják a hadviselést. 2017-ben több mint száz MI- és robotikaszakértő írt alá egy az ENSZ-nek címzett nyílt levelet, amelyben pontosan erre figyelmeztetnek.
Kérdés az, hogy az emberek képesek lennének-e megfékezni azokat a halálos technológiákat, amelyek gyorsabban gondolkodnak, mint ők, hiszen egy nap azok talán önállóan cselekedhetnek. A Campaign to Stop Killer Robots (Kampány a gyilkos robotok megállításáért) szerint szigorú nemzetközi szabályokra van szükség az AWS elterjedésének és a visszaéléseknek a megfékezéséhez. Ezt az álláspontot tucatnyi kisebb ország, több Nobel-békedíjas, valamint számos béke- és biztonságkutató támogatja. Ezzel szemben bizonyos katonai hatalmak ellenállnak a jogilag kötelező erejű biztosítékoknak. Nagy-Britannia, Kína, India, Izrael, az USA és mások viszont a felelős felhasználás mellett érvelnek, az „ember a körforgásban” elvet hangoztatva. Ez azt jelenti, hogy az AWS-egységek döntéseit mindig egy emberi operátor felügyeli és hagyja jóvá.
Az AWS új iterációi, vagyis ismétlődő, és azok eredményeiből folyamatosan tanuló próbálkozásai azonban máris felgyorsítják az OODA-ciklust, amelyben a megfigyelés, a tájékozódás, a döntés és a cselekvés sebessége határozza meg a támadásokat. Ráadásul az automatizálás kiszorítja az emberi ítélőképességet a feltörekvő technológia használata során. Ha ezt a két tényezőt, a fokozott sebességet és a gépekbe vetett hitet kombináljuk, akkor kérdés, hogy az AWS gyakorlati kezelőinek meglesz-e a teljes kontrollja az általuk használt fegyverek felett.
A veszélyes autonóm drónokkal kapcsolatban az a probléma, hogy nem kell hozzá sem az OpenAI, sem a Google, vagyis nincs szükség e két nagy cég generatív MI-chatbotjára ahhoz, hogy a harctéren bevessék őket.
Ukrán startupok például olyan drónokat fejlesztettek ki, amelyek úgy programozhatók, hogy akkor is támadjanak, ha megszakad a kapcsolatuk az emberi kezelővel.
A mesterséges intelligencia és az autonóm fegyverrendszerek fejlődése tehát már nem a jövő, hanem a jelen. Az OpenAI és a Google lépései jól mutatják, hogy a technológiai vállalatok egyre inkább elmosódó etikai határvonalak mentén lavíroznak, miközben kormányzati és katonai együttműködések révén új piacokat keresnek. Bár hivatalosan továbbra is ragaszkodnak ahhoz, hogy az MI-fejlesztés az emberi jogok és a nemzetbiztonság védelmét szolgálja, az iparági trendek azt mutatják, hogy az MI hadiipari integrációja megállíthatatlanul halad előre. Az igazán nyugtalanító kérdés azonban nem az, hogy a techóriások milyen gyorsan és milyen mértékben hátrálnak ki a korábbi morális álláspontjaikból, hanem az, hogy ki és milyen módon fogja szabályozni ezt az egyre önállóbbá váló haditechnológiát.