Az OpenAI új mesterségesintelligencia-modellt dob piacra, amely az érvelési képességével nehéz matematikai, kódolási és tudományos problémák megoldására is képes.
Az OpenAI bejelentette legújabb mesterségesintelligencia-modelljét, az o1-et, amely a cég szerint képes összetett problémák megoldására érvelési technikák alkalmazásával. Ez a lépés mérföldkő lehet a mesterséges általános intelligencia (AGI) kifejlesztésében, amelynek célja az emberi kognitív képességek elérése a gépekben.
Az új modellek különösen hasznosak lehetnek a tudósok és a fejlesztők számára, hiszen képesek matematikai, kódolási és tudományos problémák megoldására. A technológiai iparban a Google DeepMind, az OpenAI és az Anthropic között egyre élesebb verseny folyik az olyan rendszerek kifejlesztéséért, amelyek képesek önállóan, személyre szabott ügynökként működni, segítve az embereket a munkájuk során, vagy akár a kommunikációban és a digitális világ kezelésében.
Az o1 modellek kiemelkedő teljesítményt nyújtanak: a Nemzetközi Matematikai Olimpia kvalifikációs vizsgáján 83 százalékos eredményt értek el, messze felülmúlva a GPT-4o 13 százalékos teljesítményét. Mira Murati, az OpenAI technológiai igazgatója szerint a modellek betekintést nyújtanak a mesterséges intelligencia „gondolkodási folyamataiba”, lehetővé téve a kutatóknak, hogy megértsék, hogyan dolgoznak a gépek.
Megerősített tanulási technikákat alkalmaznak, amelyek bár költségesebbek és hosszabb feldolgozási időt igényelnek, mégis következetesebb és kifinomultabb válaszokat adnak. Mark Chen, a projekt vezető kutatója elmondta, hogy a modell képes felismerni a saját hibáit, és javítani azokat, ami jelentős előrelépést jelent az MI-rendszerek érvelési képességeiben.
Az OpenAI szerint az új technológiák az online keresést is forradalmasíthatják, új keresési paradigmát hozva létre a SearchGPT eszközén keresztül.
A szakértők szerint a gépi érvelés kifejlesztése kulcsfontosságú a mesterséges általános intelligencia eléréséhez, amely valódi autonómiát ad a mesterséges intelligenciának.
Bár a tudományos közösség még szkeptikus, és szükségesnek tartja a független értékeléseket, az MI fejlődésének gyors üteme jelentős lehetőségeket, ugyanakkor kockázatokat is rejt magában. A fejlettebb rendszerek nagyobb visszaélésekre adnak alkalmat, ezért az OpenAI megerősítette a biztonsági intézkedéseit, és együttműködik független intézetekkel, hogy minimalizálják ezeket a veszélyeket.