Veszélyes lehet az OpenAI Deep Research használata – makronom.eu
2025. június 24., kedd

Veszélyes lehet az OpenAI Deep Research használata 

A közgazdászok rajonganak érte, de nem árt az óvatosság. 

Február elején az OpenAI bemutatta legújabb mesterségesintelligencia-alapú eszközét, a Deep Researcht, amely az elmondásuk szerint „mélyreható, többlépcsős kutatások elvégzésére” készült.  Az akadémiai közeg nagy lelkesedéssel fogadta. Kevin Bryan, a Torontói Egyetem közgazdásza úgy véli, a kevésbé tudományos folyóiratokba biztosan lehet publikálni olyan tanulmányokat, amelyeket egy nap alatt írtak meg a Deep Researchcsel. Tyler Cowen, a George Mason Egyetem professzora pedig így fogalmazott: a modell olyan minőséget hoz, mintha „egy jó PhD-szintű kutatási asszisztensnek adnánk ki egy feladatot”

A kérdés adott: megéri-e havi kétszáz dollárt fizetni a Deep Researchért? Cowen, aki már korábban is felült az olyan divathullámokra, mint a Web3 vagy a mára elfeledett Clubhouse, elmondta, hogy ha a Deep Research valóban egyfajta mesterséges szuperintelligencia előfutára, akkor az a havi 200 dollár (~ 71 ezer forint) lehet a világ valaha volt legjobb üzlete. Hogy eldönthesse, megéri-e, a The Economist szerzője is kipróbálta a modellt.  

Adatok, közhelyek és a gondolkodás kiiktatása 

Kezdjük az egyértelmű megállapításokkal. A Deep Research nem képes primer kutatást végezni – például közvélemény-kutatásokat szervezni Peruban vagy érzékelni egy vezérigazgató testbeszédét. Kávét sem főz, így az emberi asszisztenseket sem váltja ki teljesen. Viszont  

visszatérő panasz rá, hogy a szövegei gyakran unalmasak, 

még akkor is, ha kifejezetten élénkebb stílust kérnek tőle. De – legalábbis a szerző szerint – mivel sokan egyébként sem írnak igazán érdekfeszítően, ez nem mindenkinek zavaró. 

Hosszabb használat után azonban három komolyabb probléma is megmutatkozik. Az első az adatkezelés korlátai. A modell jól kezeli az egyszerű kérdéseket – például: „Mekkora volt a francia munkanélküliségi rátája 2023-ban?” –, sőt a kissé bonyolultabbakra szintén jól válaszol, például: „Mekkora volt Franciaország, Németország és Olaszország 2023-as, népesség szerint súlyozott átlagos munkanélküliségi rátája?”. Ám ahol kreativitásra van szükség, ott megbicsaklik. Például tévesen becsli meg, mennyit költött egy 25–34 éves korosztályba tartozó amerikai háztartás whiskyre 2021-ben – holott a Munkaügyi Statisztikai Hivatal pontos adatát (20 dollár) bárki megtalálhatja pár kattintással. A modellt az olyan kérdés is megzavarja, hogy milyen arányban használnak a brit vállalkozások mesterséges intelligenciát, még akkor is, ha a hivatalos statisztikai hivatal rendszeresen közöl erről adatokat. A bonyolultabb, forrásadatokkal dolgozó feladatokat még mindig jobban végzi az ember. 

A második probléma, hogy a Deep Researchöt hatalmas adattömegen tanították be. Ez persze egyes esetekben előny, hiszen képes részletes és forrásokkal tűzdelt összefoglalókat készíteni. Cowen például arra kérte, hogy írjon egy tízoldalas tanulmányt David Ricardo adózási elméletéről – a végeredmény bármely tankönyvbe befért volna. 

Azonban épp ez az adattömeg okozza a modell problémáját, ugyanis a gyakran megjelenő vagy ismételt nézeteket részesíti előnyben, nem pedig a legjobbat. Tehát  

az információ mennyisége felülírja a minőségét.  

Ez a statisztikákra is igaz: a modell hajlamos a könnyen elérhető (például újságcikkekből származó) forrásokat előnyben részesíteni a megbízhatóbb, de fizetős vagy nehezen hozzáférhető adatokkal szemben. 

Hasonló történik az elméletekkel is. Ha azt kérdezzük tőle, hogy nőtt-e az amerikai jövedelmi egyenlőtlenség, a modell – ha nem kérjük másképp – automatikusan azt feltételezi, hogy az 1960 óta drasztikusan nőtt, ami egy mainstream álláspont. Pedig sok szakértő szerint alig emelkedett vagy stagnált. Vagy nézzük Adam Smith „láthatatlan kéz” metaforáját, amelyet sokan a szabad piac előnyeinek szimbólumaként értelmeznek.  

Emma Rothschild harvardi professzor 1994-ben publikált egy tanulmányt, amely szerint Smith nem így használta ezt a kifejezést – bár a modell ezt is ismeri, mégis hajlamos a népszerű, de téves nézetet visszhangozni. Tehát  

aki a Deep Research nevű eszközt használja, könnyen csak a meglévő nézetekkel találkozik – nem pedig a valóban úttörő gondolatokkal.  

Ez komoly hátrány azok számára, akiknek fontos a kreativitás, legyen szó befektetőkről vagy közéleti értelmiségiekről. 

Fontos a betanítási adatok minősége is 

Ahhoz, hogy minőségi választ kapjunk a mesterséges intelligenciától, fontos, hogy minőségi, hiteles adatokon legyen betanítva. Na de mi lesz, ha elfogynak az adatok? Az MI-modellek akkor a saját maguk által generált adatokra fognak támaszkodni. Ezek azonban tartalmazhatnak valótlanságokat is, és ha ezeken tanítjuk meg, még nagyobb a valószínűsége, hogy hibázni fog. Ez pedig olyan, mint egy lavina: az egyre hibásabb modellek egyre több problémás adatot generálnak, ami minőségi romlást eredményez a következő generációs MI esetében, így az még több rossz választ generál majd – és így tovább.   

Ilia Shumailov,  a Google DeepMindkutatójaszerint a generatív mesterséges intelligencia fejlődési üteme valószínűleg lelassul, mivel egyre kevesebb jó minőségű adat áll rendelkezésre. A Financial Times hozzátette, így számítani lehet arra, hogy az adatok még többet fognak érni, mint eddig. Amikor pedig elfogynak, a mesterséges intelligencia kutatóinak sokkal több időt és pénzt kell majd fordítaniuk a valótlanságok kiszűrésére.   

Már léteznek is olyan cégek, amelyek egyebek mellett az adathalmazok tisztítására, azaz a tévedések kiszűrésére specializálódtak. Ezek közül a Hugging Face a könnyebben ellenőrizhető kis nyelvi modellekre összpontosít egyes területeken, például az orvostudományban. Anton Lozhkov, a társaság gépi tanulási mérnöke szerint bár a kutatók nem szeretik ezt a munkafolyamatot, egy ponton muszáj lesz erre is időt és energiát szánni.   

Az idiotizmus csapdája 

A harmadik – és talán legsúlyosabb – probléma nem magával a modellel van, hanem a felhasználási módjával. Paul Graham szilícium-völgyi befektető már figyelmeztetett: az MI-modellek, amelyek felajánlják, hogy helyettünk írnak, ostobává tehetnek minket. 

„Az írás egyenlő a gondolkodással. És van egyfajta gondolkodás, amit csak az írás képes felszínre hozni” – állítja. Ugyanez igaz a kutatásra is. Számos munkánál a kutatás egyenlő a gondolkodással, ami sokszor nem más, mint ellentmondások, rések észlelése a mainstream álláspontokban. A The Economist szerzője szerint 

ha mindezt egy szuperintelligens asszisztensre bízzuk, akkor épp azokat a lehetőségeket veszítjük el, amellyekkel a legjobb ötletek juthatnának eszünkbe. 

Idővel az OpenAI kiküszöbölheti a technikai problémákat, és elképzelhető, hogy egyszer a Deep Research valóban eredeti gondolatokat fog generálni, és nemcsak segéd-, hanem fő kutató is lehet belőle. Persze addig is lehet használni, csak ne számítsunk arra, hogy valóban kiváltja a kutatási asszisztenseket. 

Kapcsolódó:

Posztok hasonló témában

Heti hírlevél

Iratkozzon fel hírlevelünkre!

Minden héten megkaphatja válogatott tartalmainkat, hogy naprakész információi legyenek a világ történéseivel kapcsolatban.


Kérjük adja meg a teljes nevét.

Email címét nem osztjuk meg.

Kérdezz bátran!
Chat