Az amerikai cégeknek egyre gyakrabban nyíltan be kell vallaniuk, ha mesterséges intelligenciát (MI-t) vetnek be a felhasználói interakciókban.
Képzeljük el, milyen kellemetlen helyzetbe kerülünk (sokunkkal már elő is fordult), amikor egy ügyfélszolgálati chatbot válaszol a panaszunkra, de sokáig embernek hisszük. Csak akkor vallja be, hogy MI, ha kifejezetten rákérdezünk. Vagy egy e-mail-platform automatikusan összefoglalja egy-egy félnek írt leveleinket, méghozzá előzetes értesítés nélkül. Egy felhasználó éppen emiatt váltott szolgáltatót: zavarta, hogy az MI beavatkozik a gondolkodás szabadságába. Azaz nem akarta, hogy egy személytelen, idegen algoritmus döntse el, mi a lényeges egy-egy személyes elektronikus üzenetben. Ez jól mutatja a tétet: az átláthatóság nemcsak kényelmi kérdés, hanem a felhasználói autonómia védelméről is szól.
Széttöredezett a szabályozás
Fontos előrebocsátani, hogy az USA-ban nincs egységes szövetségi MI-törvény, így az államok – egyelőre legalábbis – önállóan léptek. Ez azonban mozaikszerű rendszert hoz létre, amelyben a vállalatoknak államonként kell alkalmazkodniuk – ami növeli a költségeket. Az MI-szabályozás terén Utah volt az úttörő: 2024 májusától kötelező jelezni, ha generatív MI-t használnak a fogyasztói interakciókban.
Különösen szigorú az MI-szabályozás az egészségügyben, ahol már a kapcsolatfelvétel elején egyértelműen kell jelölni, hogy a beteg emberrel beszél-e.
A törvény hangsúlyozza: az MI hibáiért az azt üzemeltető cég, intézmény a felelős. Idén ugyanakkor finomhangolták a szabályokat, szűkítve a kötelező jelölést például a mentális egészségi chatbotoknál.
Kalifornia állam viszont még tovább ment: 2019 óta létezik ugyan a chatbotjelölési előírás, de 2025 októberében aláírták az SB 243-as számú szabályozást, amely az „embernek tűnő” chatbotokra fókuszál. Az AB 2013 rendelet közben a generatív MI-fejlesztőktől átláthatóságot követel, mégpedig azokról az adatokról, amikkel a tanításuk történt. Sőt, a rendőrségnek is jeleznie kell, ha MI segíti az intézkedésekkel kapcsolatos jelentések megfogalmazását – ez meglehetősen egyedi lépés a közhatalmi átláthatóság felé.
Más amerikai államok sem tétlenkednek. Colorado átfogó szabályozást tervez jövőre a magas kockázatúnak minősített MI-rendszerekre. New York állam az algoritmusokkal segített döntéshozatal során részletes átláthatóságot ír elő, különösen a munkaerő-toborzásban. Montana és Arkansas államok pedig az álhírekre, a deepfake-védelemre fókuszálnak.
Szövetségi szinten ugyanakkor továbbra is hiányzik a kifejezetten az MI-re fókuszáló jogi szabályozás.
A Szövetségi Hírközlési Hatóság (FTC) csupán meglévő törvényeket alkalmaz az MI-re, de dedikált keretrendszer a mai napig sincs. Így egyelőre az államok töltik ki a joghézagot. Közben pedig erősödik a vita: lassítsák szabályokkal a technológia terjedését, vagy biztosítsanak széles körű kikapcsolhatóságot az MI terén.
Támogatók vs. kritikusok
A támogatók szerint a jelölés az első lépés a felelős MI felé. Ha tudjuk, hogy MI-vel beszélünk, elkerülhetjük a manipulációt, így probléma esetén magánszemélyként vagy üzleti döntéshozóként is felelősségre vonhatjuk a szolgáltatókat. Egy egészségügyi chatbot hibás tanácsáért az egyes államoknál bemutatott törvények szerint a vállalat felel.
A nyílt jelölés így erősíti a bizalmat – senki sem érzi magát becsapva.
Akritikusok persze óvatosságra intenek. A kötelező jelölés visszafoghatja az innovációt: ha az emberek elfordulnak az MI-től a „vigyázz, robot” jellegű címkék miatt, a cégek kevesebbet fektetnek a fejlesztésbe. Egyes tanulmányok szerint a felhasználók 40-50 százaléka kerülné az MI-t kötelező jelölés esetén, különösen az érzékeny területeken. Ráadásul a kisvállalkozásoknak nehézkes államonként mindehhez alkalmazkodni.
A vitának tehát van gazdasági vetülete is. A McKinsey becslése szerint az MI 2030-ra 13 ezermilliárd dollárral növelheti a globális GDP-t. Ám,
ha a széttöredezett szabályozás fékezi a terjedést, az USA lemaradhat Kínával szemben.
Ugyanakkor a transzparencia hiánya adatvédelmi botrányokat, „elfogult” algoritmusokat szülhet, ami hosszú távon végső soron nagyobb károkat okozhat.
Az EU-s párhuzam
Európában az AI Act (ami 2024 augusztusától hatályos) egységes keretet ad, ellentétben az USA mozaikszerű szabályozásával. Az EU jelenleg a korlátozásra, a tiltásra fókuszál: tilos a társadalmi szintű online pontozás jellegű felhasználás, a rejtett manipuláció vagy közterületi, valós idejű biometrikus azonosítás, például az arcképfelismerés révén. Eközben az EU-s transzparencia már most kötelező: chatbotoknál jelezni kell, ha nem emberrel kerül kapcsolatba a felhasználó, a deepfake tartalmaknál pedig egyértelmű feliratozás szükséges. Idén pedig az általános célú MI-modellek átláthatósági szabályai léptek életbe: dokumentálni kell a tanító adatokat, kockázatokat. Ám a „feketeleves” jövőre jön, az úgynevezett magas kockázatú MI-rendszerekre szigorú szabályok érkeznek. Ide tartozik
az egészségügyi diagnosztika, a hitelbírálat, a rendvédelem és az oktatási célú vizsgáztatás.
E területeken kötelező lesz a kockázatkezelés, a minőségi adatok, a műszaki dokumentáció, a naplózás és az emberi felügyelet. A gyártóknak pedig a megfelelőségi értékelés, akár CE-jelölés is szükséges lehet. Mindez jóval szigorúbb, mint az amerikai szabályok. Az EU-ban auditálható módon kell eleget tenni a szabályoknak, az „elkövető” cég büntethetővé válik, akár a globális árbevétel 6 százaléka is kiszabható bírságként. Mindennek előnye, hogy az unió egységes piacot alkot, az Amerikaihoz képest jóval kevésbé töredezett innovációs tér jön létre. Hátrány viszont a lassabb innováció, különösen az MI-startupoknál. Az EU számára tehát a biztonság előbbre való, míg az USA ezúttal is az „előbb gyorsan innováljunk, majd vizsgáljuk meg, mit alkottunk, és ha kell, akkor javítsunk” megközelítés az irányadó.
Következmények
Az MI-jelölést, annak átlátható fejlesztését és alkalmazását előíró törvényekre érdemes ma úgy tekinteni, mint amelyek nem annyira lassítják, hanem irányítják a fejlesztéseket. A felhasználói jog – elutasítani az MI-t – pedig látványosan erősíti a demokráciát a digitális térben.
Nyitókép (illusztráció) – Freepik
Kapcsolódó:

