Kalifornia úttörő mesterségesintelligencia-szabályozása átláthatósági és biztonsági kötelezettségeket ír elő a technológiai óriások számára, sőt egy friss javaslat a kisgyermekeket is védené az MI-játékoktól. A törvény hatása már más amerikai államokban is érezhető.
Kalifornia állam január 1-jétől hatályba lépett mesterségesintelligencia-törvénye új korszakot nyithat az MI-szabályozásban. A jogszabály elsősorban a nagy, fejlett MI-rendszereket fejlesztő technológiai vállalatokat célozza meg, szigorú átláthatósági és biztonsági követelményekkel. A szabályok főként a nagyobb, évi 500 millió dollárnál magasabb bevételű technológiai nagyvállalatokra vonatkoznak, és a középpontjában az úgynevezett katasztrofális kockázatok megelőzése és kezelése áll, amely a széles körben alkalmazott MI-technológiák potenciális veszélyeire irányítja a figyelmet.
Ezek a „katasztrofális kockázatok”
A felvezetőben említett törvény szerint katasztrofális kockázatnak minősül, ha
egy MI-rendszer több mint ötven ember halálát okozhatja, tömegpusztító fegyverekhez kapcsolódó károkat eredményezhet vagy egymilliárd dollárt meghaladó gazdasági veszteséget idéz elő.
Ezek a kategóriák jól tükrözik a szabályozók legfőbb aggodalmait: az emberi életek védelmét, a nemzetbiztonsági kockázatok minimalizálását és a gazdasági stabilitás megőrzését.
A nagy cégeknek jelenteniük kell
A bejelentési kötelezettségek szintén figyelemre méltók. A nagyvállalatoknak súlyos biztonsági incidensek esetén tizenöt napon belül értesíteniük kell a hatóságokat, azonnali életveszély fennállása esetén pedig ez a határidő huszonnégy órára csökken. A rendelkezések megszegése jelentős következményekkel járhat: akár egymillió dolláros bírságot is kiszabhatnak a jogszabály megsértőire.
A törvény célja nemcsak a kockázatok kezelése, hanem a közbizalom erősítése is.
A technológiai cégeknek részletes átláthatósági jelentéseket kell készíteniük a modelljük használatáról, a működési korlátairól és a kockázatkezelési stratégiáiról.
Külön figyelmet érdemel a whistleblowerek esete: a törvény megvédi azokat az alkalmazottakat, akik felhívják a figyelmet biztonsági problémákra vagy szabálytalanságokra.
Lelassul az innováció?
Az új szabályozást sok kritika érte. Szakértők rámutattak, hogy nem foglalkozik az olyan égető kérdésekkel, mint az MI-alapú dezinformáció terjedése, a környezeti hatások vagy az úgynevezett algoritmikus diszkrimináció. Ráadásul a jogszabály kizárólag a nagy bevételű vállalatokra érvényes: csak azokra a cégekre, amelyek éves bevétele meghaladja az említett ötszázmillió dollárt. Ez azt jelenti, hogy számos kisebb, de potenciálisan szintén kockázatos MI-fejlesztő kimarad a szabályozás hatálya alól.
További aggályokat vet fel, hogy
a bejelentett incidensek részletei nem lesznek teljes mértékben nyilvánosak.
A vállalatok üzleti titokra hivatkozva korlátozhatják az információk közzétételét, ami csökkentheti a valódi átláthatóságot. A törvény hatékonysága tehát nagyban múlik majd a végrehajtás minőségén és az állami szervek ellenőrzési kapacitásán.
Ragadós a példa
Mindezek ellenére a kaliforniai szabályozás már most országos szinten érezteti hatását. New York állam kifejezetten ennek mintájára alkotta meg saját MI-szabályozását, a Responsible AI Safety and Education Actet, amelyet Kathy Hochul kormányzó december 19-én írt alá. A New York-i törvényt ráadásul idén jelentősen át is dolgozzák, hogy még jobban igazodjon a kaliforniai modellhez. Ez a fejlemény azt jelzi, hogy Kalifornia gyakorlatilag országos mintát teremtett, amely várhatóan 2027-től New York államban is hatályba lép.
A szakértők szerint a kaliforniai törvény azért előremutató, mert egy jónak tűnő kísérlet arra, hogy egyensúlyt teremtsenek az innováció ösztönzése és a társadalmi biztonság megőrzése között. A sikere vagy kudarca hosszú távon meghatározhatja, hogyan szabályozzák a mesterséges intelligenciát az Egyesült Államokban.
A gyerekeket is óvnák
Mi több egy érdekes kiegészítő javaslat is született a szabályozás mellé. Steve Padilla kaliforniai demokrata szenátor január 5-én
törvényjavaslatot nyújtott be, amely négy évre betiltaná az MI-chatbottal működő játékok gyártását és árusítását a 18 év alattiak számára.
A cél az, hogy a hatóságok időt kapjanak egy olyan szabályozás kidolgozására, amely megvédi a kiskorúakat a veszélyes mesterségesintelligencia-interakcióktól. Padilla szerint bár az MI a jövőben a mindennapjaink részévé válhat (sőt, már most is az – a szerk.), a jelenlegi kockázatok határozott fellépést igényelnek a gyermekek védelmében. A javaslat hátterében több aggasztó eset áll, köztük olyan perek, amelyekben egyes családok azt állítják, hogy gyermekeik hosszú chatbotbeszélgetések után követtek el öngyilkosságot. A fogyasztóvédelmi szervezetek olyan MI-alapú játékokra figyelmeztettek, amelyek könnyen érzékeny vagy veszélyes témákról kezdenek beszélni. Padilla hangsúlyozta: a gyerekek nem válhatnak a technológiai óriások kísérleti alanyaivá.
Nyitó illusztráció: Freepik
Kapcsolódó:

