Az OpenAI szervezeti átalakítása komoly kérdéseket vet fel az MI-fejlesztés hosszú távú céljairól.
A mesterséges intelligencia területén egyre élesebbé válik az a feszültség, amely a pénzügyi haszon és az emberiség érdekeinek szolgálata között húzódik. Az OpenAI, a világ legismertebb és legértékesebb mesterségesintelligencia-startupja ennek a dilemmának a középpontjába került egy olyan szervezeti átalakítással, amely alapjaiban kérdőjelezi meg eredeti küldetésének hitelességét.
Az OpenAI-t 2015-ben alapította többek között Sam Altman azzal a céllal, hogy „az emberiség egészének javát szolgáló digitális intelligenciát fejlesszen”, teljesen nonprofit keretek között. A működést kezdetben adományokból, például Elon Musk támogatásából finanszírozták. Két év elteltével azonban Altman úgy ítélte meg, hogy a küldetés teljesítéséhez jóval nagyobb számítási kapacitásra van szükség, mint amit ezek az összegek biztosítani tudnak.
Ez vezetett ahhoz, hogy 2019-ben létrehozták az OpenAI Global nevű profitorientált egységet, egy különleges struktúrával: a befektetők nyeresége felső határhoz kötött, az ezen felüli haszon a nonprofit alapítványhoz kerül. A keretrendszer lényege az volt, hogy a nonprofit testület továbbra is irányítja a nyereségorientált leányvállalat működését, és így az emberiség érdekei előrébb valók maradnak a befektetői hozamnál. Az akkori tájékoztatás szerint „bölcs dolog lenne úgy tekinteni az OpenAI Globalba történő befektetésre, mint egy adományra”.
Ez az elgondolás azonban az utóbbi időben megingott, különösen a jelentős befektetők, például a japán SoftBank részéről, amelyek egyre hangosabban követelik a szervezeti struktúra felülvizsgálatát. Ennek nyomán 2023 decemberében az OpenAI egy olyan átalakítást javasolt, amely gyakorlatilag megszüntette volna a nonprofit testület kontrollját a vállalat felett. A javaslat szerint a továbbiakban csak egy lenne a szavazati jogú részvényesek közül, és a forrásait jótékonysági célokra – például az egészségügyre, az oktatásra és a tudományra – fordítaná.
Ez a változtatás heves ellenállást váltott ki. Számos MI-szakértő nyílt levélben kérte a kormányokat, hogy lépjenek közbe, mivel szerintük a tervezett módosítás sérti az OpenAI eredeti jogi vállalásait. A kritikusok szerint ugyanis ezzel megszűnne a cég azon „kötelezettségvállalása”, amely az emberiség javára történő működést biztosította volna.
Válaszul az OpenAI májusban egy kompromisszumos javaslattal állt elő. Ebben az áll, hogy
megmarad a nonprofit testület döntéshozatali fölénye, ugyanakkor eltörlik a befektetői nyereségkorlátot.
A módosított terv tehát megpróbálja egyensúlyba hozni az emberiség érdekeit a piaci realitásokkal. A kérdés az, hogy ez a megoldás elegendő-e az olyan szereplők számára, mint a Microsoft vagy a SoftBank.
Az összehasonlítás kedvéért érdemes felidézni a Google által 2014-ben felvásárolt londoni székhelyű DeepMind esetét. Az akkori megállapodásban egy független etikai felügyelet létrehozásának az ígérete szerepelt, ám ezt rövid időn belül elvetették. Demis Hassabis, a DeepMind társalapítója később úgy nyilatkozott: „Valószínűleg túl idealista elképzeléseink voltak.”
Van azonban példa arra is, hogy az idealizmus még nem halt ki teljesen. A 2021-ben indult Anthropic – amelyet olyan OpenAI-alkalmazottak alapítottak, akik már akkor aggódtak a cég irányváltása miatt – egy független ötfős Long-Term Benefit Trustot hozott létre, amely az emberiség érdekének képviseletére hivatott. Ez a bizalmi testület négy éven belül kinevezheti a cég igazgatótanácsának többségét. Az Anthropic közhasznú vállalatként működik, így jogilag köteles figyelembe venni a társadalmi érdekeket is. Ugyanilyen besorolást kapott Elon Musk cége, az xAI, és az OpenAI is ebbe az irányba mozdulna el.
A gyakorlatban azonban az úgynevezett public benefit corporation státusz nem jelent komoly korlátozást: csak a jelentős részvényesek – nem pedig a nyilvánosság – indíthatnak eljárást, ha úgy vélik, hogy a cég megsértette a társadalmi felelősségvállalási kötelezettségeit.
Nem szabad elfelejteni, mi történt 2023 novemberében: miután az OpenAI igazgatótanácsa menesztette Altmant, mondván, hogy eltért a szervezet alapelveitől, a lépés heves ellenállást váltott ki a munkatársak és a befektetők körében. Ennek eredményeként Altman visszatért, a régi igazgatók többsége pedig távozott. Simon Mundy, a Financial Times (FT) munkatársa szerint ez az incidens világosan megmutatta, hogy a nonprofit testület „emberiségért felelős” szerepe igen gyenge lábakon áll
Két korábbi igazgató, Helen Toner és Tasha McCauley egy The Economist-cikkben arra figyelmeztetett, hogy az MI-startupok által önként vállalt korlátozások „nem képesek megbízhatóan ellenállni a profitszerzési nyomásnak”.
Szerintük ahhoz, hogy az MI fejlesztése valóban az emberiség javát szolgálja, elengedhetetlen, hogy a kormányok hatékony szabályozási kereteket dolgozzanak ki ezzel kapcsolatban. Az EU már megtette az első lépést az AI Act elfogadásával, de az Egyesült Államokban nem mutatkozik túl nagy politikai akarat a szigorításra.
Miközben az MI a munkaerőpiacon – a General Assembly jelentése szerint – egyre inkább felerősítheti a faji és nemi egyenlőtlenségeket, a hosszú távú kockázatok még súlyosabbak lehetnek. Nem véletlen, hogy 2023-ban Altman, Hassabis és más iparági vezetők közös nyilatkozatot írtak alá, amely szerint „az MI kockázatának csökkentése globális prioritás kell legyen”.
Nem ez az egyetlen meglepő döntésük
Korábban az OpenAI szabályai egyértelműen tiltották, hogy bárki fegyverfejlesztésre, katonai vagy hadviselési célokra használja a modelljeit. Ez azonban tavaly január 10-én megváltozott: akkor ugyanis a The Intercept arról számolt be, hogy a cég enyhített ezeken a korlátozásokon, azonban azt továbbra is tiltotta, hogy bárki arra használja a technológiát, hogy „kárt okozzon magának vagy másoknak” fegyverek kifejlesztésével, használatával, mások megsebesítésével vagy a tulajdon elpusztításával.
A vállalat nem sokkal később közölte, hogy együttműködik a Pentagonnal kiberbiztonsági szoftvereken, de fegyvereken nem. Aztán egy októberben közzétett blogbejegyzésben megosztotta, hogy nemzetbiztonsági területen dolgozik, azzal érvelve, hogy a megfelelő kezekben az MI „segíthet megvédeni az embereket, elrettenteni az ellenfeleket és akár meg is előzheti a jövőbeli konfliktusokat”.
Tavaly decemberben pedig
az OpenAI bejelentette, hogy a technológiáját közvetlenül a harctéren fogják bevetni.
A vállalat akkor elmondta, hogy együttműködik az Anduril védelmi technológiai céggel, az MI-alapú drónok, radarrendszerek és rakéták gyártójával, hogy segítsen az amerikai és a szövetséges erőknek a dróntámadások elleni védekezésben. Emellett segédkezik olyan MI-modellek létrehozásában, amelyek „gyorsan szintetizálják az időérzékeny adatokat, csökkentik az emberi kezelőkre nehezedő terheket és javítják a helyzetfelismerést” az ellenséges drónok hatástalanítása érdekében – áll a cég közleményében.
Konkrétumokat nem hoztak nyilvánosságra, de Liz Bourgeois, az OpenAI szóvivője szerint a program kifejezetten az amerikai személyzet és a létesítmények védelmére összpontosít majd. Hozzátette, hogy ez a partnerség összhangban van a cég elveivel, és a technológiájukat továbbra sem lehet mások megkárosítására használni.
Az Anduril szóvivője nem hozta nyilvánosságra azokat a bázisokat, ahol a modelleket be fogják vetni, de azt elmondta, hogy a technológia segít a drónok észlelésében, követésében, és a személyzetről igyekszik levenni a munka unalmas részének a terheit.
Az OpenAI technológiájának katonai felhasználását tiltó irányelvek kevesebb mint egy év alatt megváltoztak. Amikor az év elején enyhített az egykor egyértelmű szabályán, a cég szóvivője szerint ez azt jelentette, hogy korlátozott kontextusban, például a kiberbiztonság, az öngyilkosság-megelőzés és a katasztrófaelhárítás területén működik együtt a hadsereggel.
Azóta azonban a ChatGPT-t működtető cég nyíltan vállalja a nemzetbiztonsággal kapcsolatos tevékenységét. Ha a hadseregekkel vagy a védelmi technológiával foglalkozó vállalatokkal való együttműködés segíthet abban, hogy a demokratikus országok uralják a mesterséges intelligencia versenyét – írták –, akkor ez nem mond ellent az OpenAI azon céljának, hogy az MI előnyeit széles körben megosszák. Sőt, érvelése szerint ez segíteni fogja ezt a küldetést.
Kapcsolódó: