A kaliforniai MI-törvény szigora – makronom.eu
2026. január 16., péntek

A kaliforniai MI-törvény szigora

Kaliforniai MI szabályozás - Freepik

Kalifornia úttörő mesterségesintelligencia-szabályozása átláthatósági és biztonsági kötelezettségeket ír elő a technológiai óriások számára, sőt egy friss javaslat a kisgyermekeket is védené az MI-játékoktól. A törvény hatása már más amerikai államokban is érezhető. 

Kalifornia állam január 1-jétől hatályba lépett mesterségesintelligencia-törvénye új korszakot nyithat az MI-szabályozásban. A jogszabály elsősorban a nagy, fejlett MI-rendszereket fejlesztő technológiai vállalatokat célozza meg, szigorú átláthatósági és biztonsági követelményekkel. A szabályok főként a nagyobb, évi 500 millió dollárnál magasabb bevételű technológiai nagyvállalatokra vonatkoznak, és a középpontjában az úgynevezett katasztrofális kockázatok megelőzése és kezelése áll, amely a széles körben alkalmazott MI-technológiák potenciális veszélyeire irányítja a figyelmet. 

Ezek a „katasztrofális kockázatok” 

A felvezetőben említett törvény szerint katasztrofális kockázatnak minősül, ha  

egy MI-rendszer több mint ötven ember halálát okozhatja, tömegpusztító fegyverekhez kapcsolódó károkat eredményezhet vagy egymilliárd dollárt meghaladó gazdasági veszteséget idéz elő.  

Ezek a kategóriák jól tükrözik a szabályozók legfőbb aggodalmait: az emberi életek védelmét, a nemzetbiztonsági kockázatok minimalizálását és a gazdasági stabilitás megőrzését. 

A nagy cégeknek jelenteniük kell 

A bejelentési kötelezettségek szintén figyelemre méltók. A nagyvállalatoknak súlyos biztonsági incidensek esetén tizenöt napon belül értesíteniük kell a hatóságokat, azonnali életveszély fennállása esetén pedig ez a határidő huszonnégy órára csökken. A rendelkezések megszegése jelentős következményekkel járhat: akár egymillió dolláros bírságot is kiszabhatnak a jogszabály megsértőire. 

A törvény célja nemcsak a kockázatok kezelése, hanem a közbizalom erősítése is.  

A technológiai cégeknek részletes átláthatósági jelentéseket kell készíteniük a modelljük használatáról, a működési korlátairól és a kockázatkezelési stratégiáiról.  

Külön figyelmet érdemel a whistleblowerek esete: a törvény megvédi azokat az alkalmazottakat, akik felhívják a figyelmet biztonsági problémákra vagy szabálytalanságokra. 

Lelassul az innováció? 

Az új szabályozást sok kritika érte. Szakértők rámutattak, hogy nem foglalkozik az olyan égető kérdésekkel, mint az MI-alapú dezinformáció terjedése, a környezeti hatások vagy az úgynevezett algoritmikus diszkrimináció. Ráadásul a jogszabály kizárólag a nagy bevételű vállalatokra érvényes: csak azokra a cégekre, amelyek éves bevétele meghaladja az említett ötszázmillió dollárt. Ez azt jelenti, hogy számos kisebb, de potenciálisan szintén kockázatos MI-fejlesztő kimarad a szabályozás hatálya alól. 

További aggályokat vet fel, hogy  

a bejelentett incidensek részletei nem lesznek teljes mértékben nyilvánosak.  

A vállalatok üzleti titokra hivatkozva korlátozhatják az információk közzétételét, ami csökkentheti a valódi átláthatóságot. A törvény hatékonysága tehát nagyban múlik majd a végrehajtás minőségén és az állami szervek ellenőrzési kapacitásán. 

Ragadós a példa 

Mindezek ellenére a kaliforniai szabályozás már most országos szinten érezteti hatását. New York állam kifejezetten ennek mintájára alkotta meg saját MI-szabályozását, a Responsible AI Safety and Education Actet, amelyet Kathy Hochul kormányzó december 19-én írt alá. A New York-i törvényt ráadásul idén jelentősen át is dolgozzák, hogy még jobban igazodjon a kaliforniai modellhez. Ez a fejlemény azt jelzi, hogy Kalifornia gyakorlatilag országos mintát teremtett, amely várhatóan 2027-től New York államban is hatályba lép. 

A szakértők szerint a kaliforniai törvény azért előremutató, mert egy jónak tűnő kísérlet arra, hogy egyensúlyt teremtsenek az innováció ösztönzése és a társadalmi biztonság megőrzése között. A sikere vagy kudarca hosszú távon meghatározhatja, hogyan szabályozzák a mesterséges intelligenciát az Egyesült Államokban. 

A gyerekeket is óvnák 

Mi több egy érdekes kiegészítő javaslat is született a szabályozás mellé. Steve Padilla kaliforniai demokrata szenátor január 5-én 

törvényjavaslatot nyújtott be, amely négy évre betiltaná az MI-chatbottal működő játékok gyártását és árusítását a 18 év alattiak számára.  

A cél az, hogy a hatóságok időt kapjanak egy olyan szabályozás kidolgozására, amely megvédi a kiskorúakat a veszélyes mesterségesintelligencia-interakcióktól. Padilla szerint bár az MI a jövőben a mindennapjaink részévé válhat (sőt, már most is az – a szerk.), a jelenlegi kockázatok határozott fellépést igényelnek a gyermekek védelmében. A javaslat hátterében több aggasztó eset áll, köztük olyan perek, amelyekben egyes családok azt állítják, hogy gyermekeik hosszú chatbotbeszélgetések után követtek el öngyilkosságot. A fogyasztóvédelmi szervezetek olyan MI-alapú játékokra figyelmeztettek, amelyek könnyen érzékeny vagy veszélyes témákról kezdenek beszélni. Padilla hangsúlyozta: a gyerekek nem válhatnak a technológiai óriások kísérleti alanyaivá. 

Nyitó illusztráció: Freepik

Kapcsolódó: 

Posztok hasonló témában

Heti hírlevél

Iratkozzon fel hírlevelünkre!

Minden héten megkaphatja válogatott tartalmainkat, hogy naprakész információi legyenek a világ történéseivel kapcsolatban.


Kérjük adja meg a teljes nevét.

Email címét nem osztjuk meg.

Videó

Hét ábrája

Partnereink

Kérdezz bátran!
Chat