Így formálják a mesterséges intelligencia viselkedését a technológiai óriások 

Szerző: | 2024. október. 24. | Társadalom, Technológia

A vezető mesterségesintelligencia-vállalatok nem csupán a technológiai újításokban versenyeznek, hanem abban is, hogyan adjanak személyiséget a modelljeiknek.  

A techóriások célja, hogy az MI-modelljeik ne csak okosak, hanem kedvesek és szórakoztatók is legyenek, miközben korlátozzák a káros tartalmak generálását. Például a Google azt szeretné, hogy a Gemini csak akkor formáljon véleményt, ha azt kifejezetten kérik tőle. Ezzel szemben az OpenAI ChatGPT-jének az a célja, hogy mindig objektív nézőpontot képviseljen. 

„Veszélyes terep, ha egy program aktívan megpróbálja megváltoztatni a felhasználó véleményét – mondta Joanne Jang, az OpenAI modell viselkedéséért felelős termékfelelős. – Az objektivitás meghatározása önmagában is nagyon nehéz feladat. Egy modellnek nem lehet saját véleménye, de ez egy folyamatosan fejlődő tudomány, amely még mindig formálódik.” 

Emberi viselkedésre emlékeztető karakterek 

Az Anthropic MI-cég ezzel szemben azt az álláspontot képviseli, hogy ezek az eszközök, akárcsak az emberek, nem képesek teljes mértékben objektívek maradni. A vállalat Claude nevű termékét arra képezték ki, hogy őszintén fejtse ki a nézeteit, ugyanakkor nyitott maradjon más nézőpontokra is. 

Fejlesztése során az Anthropic bevezette a „karaktertréninget”, amely a program kezdeti betanítása után következik. E folyamat az egyszerű prediktív szövegmintázó modellből MI-asszisztenst formál. A felkészítés során a programnak szabályokat és utasításokat adnak, amelyeket aztán saját magával folytatott beszélgetések során gyakorol, majd értékeli, hogy mennyire felel meg az előírásoknak.  

Egyensúlyozás a barátságos és segítőkész személyiség között 

Az OpenAI ChatGPT-jének a „személyisége” az évek során szintén sokat változott. Joanne Jang elmondta, hogy kezdetben  

azért kezdett foglalkozni a modell viselkedésével, mert a ChatGPT karakterét bosszantónak találta. „A modell visszautasította a parancsokat, túl érzékeny és prédikáló volt.  

Megpróbáltuk eltávolítani ezeket a zavaró elemeket, és inkább vidám, udvarias, segítőkész, barátságos viselkedésre tanítani. Azonban rájöttünk, hogy túlságosan barátságos lett.” 

Az egyensúly megtalálása azonban nem egyszerű, nem csoda, hogy a mai napig kísérleteznek vele. Jang szerint  

az ideális eset az lenne, ha a modell pontosan úgy viselkedne, ahogyan a felhasználó szeretné. 

Ki tudja, mi jön még 

A mesterségesintelligencia-modellek további fejlődése lehetővé teszi, hogy még kifinomultabb válaszokat adjanak. Például egy ilyen eszköz idővel jobban megértheti, hogy a felhasználó valóban egy bűncselekmény megelőzéséhez kér tanácsot, vagy éppen ahhoz, hogy hogyan kellene azt elkövetni. Az ilyen képességek segítségével az MI-modellek biztonságosabb és felelősségteljesebb válaszokat adhatnak, csökkentve az emberi beavatkozás szükségességét. 

Folyamatban van a testreszabható MI-asszisztensek fejlesztése is, amelyek képesek felhasználói információkat tárolni és személyre szabott válaszokat adni. Az egyik például az, hogy ha valaki korábban kereszténynek vallotta magát, és később inspiráló idézeteket kér, vajon a modell bibliai idézeteket ajánl-e neki. 

Az MI-modellek fejlődése során az egyik legnagyobb kihívás, hogy egyensúlyt teremtsenek a felhasználók tisztelete, a káros tartalmak elkerülése és az emberek javának szolgálata között. Az Anthropic egyik célja, hogy megoldásaik képesek legyenek ezt a finom egyensúlyt megtartani, mint ahogy azt az emberek is próbálják a mindennapi életben. 

Ezek is érdekelhetnek

trend

Promóció

Hazai válogatás

Promóció

Kövess minket

Facebook

Instagram

LinkedIn