Yann LeCun, a Meta vezető mesterségesintelligencia-kutatója szerint az MI nem is olyan veszélyes, a túl korai szabályozása pedig a nagy techcégek dominanciáját erősíti és megfojtja a piaci versenyt. Nem mindenki ért egyet vele, hiszen rossz kezekbe is kerülhet a technológia, ha mindenki számára elérhetővé válnak a különböző kódok és adatok, így inkább a biztonságot helyezik előtérbe. Van középút?
Megköti a fejlesztők kezét a felügyelet
Júniusban az Európai Parlament elfogadta az első átfogó, a mesterséges intelligenciáról (MI) szóló törvényt, amely még messze van attól, hogy jogszabállyá váljon, azonban valószínűleg ez lesz az egyik első hivatalos jogszabály az MI-re vonatkozóan.
Az Európai Parlament tagjai abban állapodtak meg, hogy az EU-ban használt mesterségesintelligencia-rendszereknek biztonságosnak, átláthatónak, nyomon követhetőnek, megkülönböztetéstől mentesnek és környezetbarátnak kell lenniük. Ennek értelmében a generatív mesterséges intelligencia – ilyen például a ChatGPT is – fejlesztőinek a kereskedelmi forgalomba hozatal előtt felül kell vizsgáltatniuk a rendszereiket.
Yann LeCun, a világ egyik vezető mesterséges intelligencia-kutatója azonban kifejezte nemtetszését a szabályozásokat illetően:
„a mesterséges intelligencia kutatásának és fejlesztésének a szabályozása kontraproduktív”.
Az MI felügyeletére vonatkozó követelések néhány vezető technológiai vállalat „felsőbbrendűségi komplexusából” erednek, miszerint csak rájuk lehet bízni a mesterséges intelligencia biztonságos fejlesztését. (…) Szerintem ez hihetetlenül arrogáns” – nyilatkozta a Financial Timesnak.
A sokat emlegetett ChatGPT-4 például egy úgynevezett feketedoboz, ami azt jelenti, hogy a modell felépítéséhez használt adatok és a működését biztosító kód harmadik fél számára nem elérhető, amely bár biztonságosabb – hiszen a rossz szándékú emberek sem férnek hozzá, és emiatt alacsonyabb a kockázat –, korlátozza a versenyt – véli LeCun, aki szerint a jelenlegi korhoz hasonlóan az internet megjelenésekor is hasonló, biztonsággal kapcsolatos kérdések merültek fel. Azonban attól tudott igazán fejlődni a technológia, hogy az nyílt és decentralizált, tehát nem egy központi helyről vagy szervezetből irányított, vagy üzemeltetett, hanem sok különböző független számítógép és szerver összekapcsolódásán alapuló hálózat maradt.
Nem olyan okosak, hogy leigázzák az emberiséget
A kockázatokat figyelembe véve többen is felszólaltak a mesterséges intelligencia túl gyors fejlődése miatt, hiszen a szabályozók nem tudnak lépést tartani a folyamatosan haladó technológiával.
LeCun azonban nem ért egyet a túlzott aggodalommal, mivel szerinte nem kell félni attól, hogy az MI elpusztítja az emberiséget, mivel az „MI nem akar uralkodni”. Szerinte a sci-fi filmek formálják ilyenre a modern technológiáról alkotott véleményt, hiszen gyakran látni, hogy az embernél okosabb gépek átveszik az irányítást és leigáznak minket.
Emellett azt is hozzátette, hogy nem is olyan okos az MI, mint amilyennek látszik – vagy akarják, hogy látszódjon.
„Egyszerűen nem értik, hogyan működik a világ. Nem képesek tervezni. Nem képesek valódi gondolkodásra”
– mondta LeCun.
A magyar kutató szerint szükség van MI-re vonatkozó szabályokra
Egy korábbi, a Makronómnak adott interjúban Yang Győző, a Nyelvtudományi Kutatóközpont tudományos munkatársa is megerősítette, hogy a generatív mesterséges intelligenciának „nincsenek szándékai és nem akarja elpusztítani a világot”. Attól tehát nem kell tartani a közeljövőben, hogy a generatív MI szándékosan okoz kárt – az azonban nem kizárt, hogy rosszindulatú felhasználók kezébe kerül. Emiatt tehát indokolttá válhat a korlátozás, amely a kutató szerint bár némileg hátráltatja a fejlesztőket, biztonságosabbá teszi a rendszereket.
„Mint kutató, a korlátozás nehezíti a mi feladatunkat. Azonban mint felhasználó, szerintem szükség van erre, főleg azért, mert amint látjuk, ez nagyon veszélyes is lehet. Tehát attól függ, hogy mire tanítják, ki mire használja. Ezek a nyelvi modellek nagyon okosnak tűnnek, és sok feladatot meg tudnak oldani, ezért akár rossz dolgokra is lehet őket használni” – fogalmazott Yang Győző.
Az említett kutatók elmondásai alapján tehát két út rajzolódik ki a mesterséges intelligencia korában: vagy hagyjuk kibontakozni az MI-t és viseljük a kockázatok következményeit, vagy keretek közé szorítjuk és valamelyest gátoljuk a fejlődését, de biztonságosan használjuk. Érdemes valahol a középutat megtalálni, hiszen az egyensúly kialakítása a szabályozás és az innováció között létfontosságú. A túl szigorú szabályok megakaszthatják a technológia fejlődését, ugyanakkor a teljes szabadság a kockázatok növekedéséhez vezethet. Ezen kihívásokkal szemben a döntéshozóknak és az iparági szereplőknek érdemes együttműködniük azért, hogy kiaknázhassák az MI előnyeit, miközben minimalizálják a negatív hatásokat.