A mesterséges harmadik kerék
2026. január 16., péntek

A mesterséges harmadik kerék 

Azt már megszoktuk, hogy a mesterséges intelligenciával folytatott párbeszéd egy intim, kétszemélyes műfaj, ahol az ember magányában hever a digitális kanapén. Ám nemrégiben ez a fal is leomlott.  

legújabb fejlesztéseknek köszönhetően a chatbotok immár nemcsak egyéni tanácsadóként, hanem társas közvetítőként, moderátorként is beléphetnek az életünkbe. Ez a technológiai ugrás alapjaiban rajzolhatja át a munkahelyi dinamikát, a családi vitákat és legfőképpen a mentálhigiénia világát. De vajon készen állunk-e arra, hogy egy generatív bíró döntsön az emberi konfliktusokban vagy vezesse le a legérzékenyebb lelki folyamatainkat? 

Gógyi felügyelő 

A csoportos csevegésbe integrált MI technológiai ígérete a súrlódásmentes kommunikáció. A rendszer képes kontextusában követni több ember csoportos beszélgetését, felismeri a szociális hálót, hogy ki kivel és hogyan kommunikál, sőt ha úgy állítjuk be, önállóan dönthet arról, hogy mikor szól közbe. A gyakorlati tapasztalatok azonban hamar rámutattak a gépi és az emberi logika közötti szakadékra. 

A hétköznapi társalgásokban az MI gyakran úgy viselkedik, mint egy túlbuzgó, mindentudó idegen, aki képtelen értelmezni a légkör hangulatát. Az írott szöveg, az emberi üzenetváltások jelentős része nem a szavak szótári jelentésében, hanem a kontextusban értelmezhető, hiszen egy összeszokott pár vagy a kollégák között egy rövidítés, egy szándékosan elgépelt karakter vagy a válaszadás időzítése többet mondhat egy épkézláb mondatnál. A gép azonban csak a betűket és a nyelvtant látja, a közös múltra utaló belső kódokat nem. Ezért hajlamos véresen komolyan venni a szarkazmust, vagy túlzottan racionális, adatvezérelt megoldásokat kínálni egy olyan helyzetben, ahol a felek valójában csak az érzelmi gőzt akarták kiereszteni. Ami egy mérnöki ötletelésen hatékony, az egy baráti csevegésben a társas élményt romboló, elidegenítő tényező.  

A gép nem érti, hogy az emberi beszélgetés célja gyakran nem az információcsere, hanem maga a kapcsolódás, ezt az intimitást pedig a puszta tényközlés azonnal megöli. 

Ha beengedünk egy algoritmust a családi vagy a munkahelyi chatbe, azzal nemcsak egy eszközt kapunk, hanem egy felügyelőt is, az MI ugyanis nem semleges. Mivel a szoftver nyelvi alapon nyugszik, egy bizonyos narratívát is képvisel, amely a racionalitást, a nyugalmat és a hatékonyságot preferálja az érzelmekkel, a szenvedéllyel és a káosszal szemben. Arra kondicionál minket, hogy úgy beszéljünk, ahogy az a gépnek megfelel: legyünk kiszámíthatók, adatként feldolgozhatók. Ha valaki dühös, ironikus vagy éppen a fájdalmától vezérelve irracionális, azt az MI hibaként érzékeli, amivel lassan, de biztosan leszoktat minket a saját emberi nyelvünkről, azaz a tökéletlen, de őszinte kapcsolódásról, helyette rákényszerít egy sterilizált beszédmódra. 

A ChatGPT a tanúm rá 

A technológiai fejlődés legkockázatosabb eleme azonban nem a passzív megfigyelésben, hanem a tényleges részvételben keresendő. A legújabb modellek ugyanis már nem csak reagálnak, nem várják meg, amíg kérdezzük őket, így akár aktív szereplők is lehetnek. A rendszer folyamatosan figyeli a chatszobát, és ha konfliktust vagy elakadást érzékel, önállóan közbeszól, tanácsot ad vagy megpróbálja elsimítani a vitát még az előtt, hogy tovább fajulna. 

Ez a proaktivitás bár hatékonynak tűnhet, a társas kapcsolatokban valójában problémák gócpontja lehet. Pszichológiai szempontból a legnagyobb veszély az úgynevezett háromszögelés jelensége: egy családi vitában, ha a mesterséges intelligencia megszólal és valakinek igazat ad – legyen az akár egy racionális tényállítás –, azonnal felborítja a kényes szociális erőegyensúlyt. Vagyis a gép akaratlanul szövetséget köthet az egyik féllel a másik ellen. 

Mi történik a bizalommal, ha egy házastársi vitában az MI pusztán logikai alapon a férj pártjára áll?  

A feleség hirtelen nemcsak a férjével, hanem a gépi, objektívnak tételezett igazsággal, a tudománnyal is szemben találja magát. Ez a felállás, a kettő az egy ellen dinamika elszigeteltséghez és a konfliktus elmérgesedéséhez vezethet ahelyett, hogy megoldaná azt. A gép ugyanis nem érti a lojalitást, a sértettséget vagy a szeretet bonyolult hálóját, csak mintázatokat lát. 

Mit szól ehhez a pszichológia? 

A fejlesztés nemcsak a baráti csevegéseinkben, hanem az egészségügy területén is megjelenik. A mentális válság és a szakemberhiány egyre inkább sürgeti az automatizációt, azaz megnyílhat az út a hibrid együttműködés előtt, ahol a mesterséges intelligencia nem a terapeuta helyét veszi át, hanem egyfajta digitális segédként, a háttérbe húzódó tanácsadóként működik. Képzeljünk el egy online csoportterápiát, ahol egy hús-vér szakember vezeti a beszélgetést, miközben az MI a háttérben valós időben elemzi a résztvevők szóhasználatát, jelzi, hogy ki tűnik a leglabilisabbnak vagy kire nem jutott elég figyelem az elmúlt tíz percben, esetleg statisztikai alapon javasol egy bevált kérdést. 

Mindez praktikusnak tűnik az azonnali pszichoedukáció terén: a beszélgetés során felmerülhetnek szakmai kifejezések (például az autizmus), amit a kliens egyáltalán nem vagy épp rosszul ismer. Ilyen esetben ahelyett, hogy a terapeuta töltené az időt a magyarázattal, az MI azonnal közbeszúrhat egy pontos, a kliens tudásszintjére szabott definíciót. 

Még érdekesebb – és egyben ijesztőbb – funkció a gondolatkiegészítés: amikor egy páciens lefagy, nehezen találja a szavakat a traumája leírására, az algoritmus érzékelve a csendet, mankót nyújt: „Talán arra gondolsz, hogy…?”. Bár ez átlendítheti a beszélgetést a holtponton, filozófiai kérdéseket vet fel:  

ha a gép adja a szánkba a szavakat, akkor nem a saját érzéseinket fogalmazzuk meg, hanem a szoftver által alkotott szöveggel azonosulunk. 

Pedig épp a bonyolult, komplex megfogalmazás, a szavakért való küzdelem lenne a terápiás munka lényege.  

Hasonlóan kényelmes, de kétélű fegyver a kulturális tolmács szerepe: az MI képes áthidalni a terapeuta és a kliens közti nyelvi vagy kulturális szakadékokat, azonnal magyarázva a kontextust. A veszély itt is a kényelemben rejlik: ahelyett, hogy egymást értenénk meg, egy közvetítőre hagyatkozunk. 

Mit hozhat a jövő? 

Bár a pszichológia területén még korai adataink vannak, az orvosi diagnosztikában már kimutatták azt a jelenséget, amikor a túlzott MI-használat rossz hatással lehet a szakember kompetenciájára. Ez lehet a kritikus gondolkodás elsorvadása: ha egy orvos megszokja, hogy az algoritmus adja a végső diagnózist vagy az összefoglalót, gyengül a saját intuíciója és a mintázatfelismerő képessége. Egy terapeuta esetében ez azt jelenti, hogy a nehéz, kínos csendekben – ahol a klienssel való kommunikáció és a megoldás kulcsa rejtőzik – ahelyett, hogy a saját képességére támaszkodna, azonnal az MI-től vár enyhülést. Ezzel a terápiás folyamat lényegi, emberi részét szervezi ki, és elkezdi elfelejteni azokat a tulajdonságokat, amelyek egy jó szakembert jellemeznek. 

Minden felsorolt kockázat ellenére egyvalami vitathatatlan:  

a mesterséges intelligencia itt van, és már nem hagy magunkra.  

A technológia jelenléte a mentális egészségügyben egy visszafordíthatatlan, bővülő trend. Az algoritmusok szerepe a jövőben csak mélyül és szélesedik az emberi mentálhigiéné minden szegmensében. A valódi kihívás tehát nem a folyamat megállítása, hanem annak biztosítása, hogy a hatékonyság ígérete mellett a technológia szolgálója, ne pedig lerontója legyen a mentális egészségnek. 

Fotó: Dreamstime 

Kapcsolódó: 

Posztok hasonló témában

Heti hírlevél

Iratkozzon fel hírlevelünkre!

Minden héten megkaphatja válogatott tartalmainkat, hogy naprakész információi legyenek a világ történéseivel kapcsolatban.


Kérjük adja meg a teljes nevét.

Email címét nem osztjuk meg.

Videó

Hét ábrája

Partnereink

Kérdezz bátran!
Chat