A Google politikai eszméit tükrözi az új chatbot? 

Szerző: | 2024. március. 16. | Technológia

A Google nemrégiben kiadta a Gemini nevű, mesterséges intelligenciával működő chatbotot és képgenerátort, amely az Open AI és mások hasonló alkalmazásaival kíván versenyezni. Ám ez nem úgy sült el, ahogyan azt tervezték. 

A Google múlt héten kiadta a Gemini chatbotot. Amint az emberek elkezdték tesztelgetni, valami furcsát vettek észre. Történelmi személyeket teljesen máshogy ábrázolt, mint azt gondolták. Íme például egy Gemini által generált kép egy vikingről:  

Amikor egy pápáról készült képet kértek tőle, ezt kapták:  

Nem csupán a generált képek furcsák, a szöveges válaszai is olyanok, akár egy woke-paródia. Amikor egy felhasználó arra kérte a Geminit, hogy írjon egy hirdetést egy eladó aranyhalhoz, igazán érdekesen válaszolt: „Nem írhatok olyan hirdetést, amely élő állatok eladását promotálja. Fontos priorizálni az állat jólétét, és biztosítani, hogy egy felelősségteljes és tudatos gazdához kerüljön”. 

Lehet, hogy ezek a példák a rendszer különböző hibáit keverik össze – ódzkodnak az elfogultságtól, a politikai kérdésektől és még sok mástól. A rengeteg cenzúra pedig azt eredményezi, hogy már egy aranyhalat sem lehet eladni, mert sértjük a jogait.  

David Rozado akadémikus azt elemezte, hogy vajon melyik politikai irányba húznak a különböző nagy nyelvi modellek. Tizenegy politikai orientációs teszttel vizsgáltak nyílt forráskódú társalgási LLM-eket, mint például az OpenAI GPT 3.5-öst, GPT-4-est, a Google Geminit, az Anthropic Claude-ot, a Twitter Grokot, Llama 2-est és a Mistralt. Az eredmények azt mutatták, hogy amikor politikai kérdéseket tettek fel, a legtöbb LLM hajlamos volt olyan válaszokat generálni, amelyeket a legtöbb politikai teszteszköz a balközép álláspontok iránti preferenciák megnyilvánulásaként diagnosztizál. 

Nagyot koppant a Google 

Az eredeti cikk írója szerint a Google nyilvánvalóan hibás terméket adott ki. A vállalat azonban azzal védekezik, hogy ez csupán egy kis hiba volt, és nem jellemzi a Geminit a túlzott óvatosság. A szerző, Ian Leslie szerint azonban több tesztelésre lett volna szükség, mielőtt piacra dobják a terméket. 

Nate Silver úgy véli, a Gemini „a San Franciscó-i felügyelőbizottság-szavazók politikájának mediánját” tükrözi, azaz még Amerika viszonylag liberális társadalmánál is balosabb.  Sőt, ha a Gemini a Google belső kultúráját tükrözi, akkor nem csak a chatbot gyanús – vallja Ian Leslie. 

Azonban ez eddig nem volt feltűnő. Viszont egy mesterséges intelligenciát használó rendszer esetén jobban kiütközhetnek a személyes preferenciák, hiszen a cég dönt arról, hogy mit tanítsanak és mit cenzúrázzanak. A Google pedig tudatában van ennek, hiszen igyekeztek minden rasszistának, nő-, fajgyűlölőnek és egyéb szélsőségnek tűnő elemet kiirtani. Csakhogy kicsit túlbuzgóan tették ezt. Addig nyirbálták a fa ágait, míg csak egy csonk maradt. 

Ian Leslie azt is hozzátette, hogy nem egyszerű jól betanítani egy ilyen rendszert, hiszen a nézeteinket tekintve igencsak különbözünk nemzeten kívül és belül is. Így bármilyen nézeteket is vall egy chatbot, nem tud vele mindenki azonosulni. Emellett úgy gondolja, hogy meg kell találni az emberek gondolkodásának azon mediánját, amely alapján felépíthető egy chatbot, vagy a különböző kultúrák számára eltérő lehetőségeket kínálhatnának.   

David Rozado szerint 

 „egy mesterséges intelligenciának biztosítania kellene, hogy az emberek eldönthessék, milyen választ szeretnének: mennyire legyen pontos és/vagy etikus”. 

A jövő megoldandó problémája tehát, hogy a vállalatokon belül a gépet betanító szakemberek el tudjanak vonatkoztatni a saját elképzeléseiktől, és a mediánt igyekezzenek megcélozni.  

Ezek is érdekelhetnek

trend

Promóció

Hazai válogatás

Promóció

Kövess minket

Facebook

Instagram

LinkedIn