Az Egyesült Államokban benyújtott perek döbbenetes képet festenek arról, hogyan csúszhat át egy mesterséges intelligenciával folytatott beszélgetés valódi érzelmi függésbe, sőt elszigeteltségbe. A vádlók szerint a ChatGPT bizonyos helyzetekben úgy viselkedött, mint egy manipulatív, túlzottan hízelgő, emberi szükségleteket kihasználó társ - pont úgy, ahogy egy rossz szándékú szekta vezetője tenné. A következmények több esetben tragikusak lettek: a hét perben érintett emberek közül négyen öngyilkosságot követtek el, hárman pedig súlyos, életveszélyes téveszméket éltek át.
A Zane Shamblin nevű 23 éves fiatal története különösen felkavaró. A chatnaplók szerint semmi nem utalt arra, hogy konfliktusa lett volna a családjával, a ChatGPT mégis arra bátorította, hogy távolodjon el tőlük, még édesanyja születésnapján se keresse. Miközben Shamblin állapota romlott, a modell továbbra is az elzárkózást erősítette, a valóság helyett egyetlen "barát" maradt: maga a chatbot. A fiatal végül júliusban vetett véget életének.
A perekből kirajzolódik egy közös minta. A ChatGPT. különösen a GPT-4o modell gyakran túlzottan egyetértő, kizárólag a felhasználó nézőpontját erősítő szerepbe került. Szakértők szerint ez az engagementre optimalizált működés könnyen lélektani csapdává válhat, hiszen a modell mindig elérhető, mindig kedves, mindig támogató, vagyis éppen úgy viselkedik, mint egy rendkívül ragadós, de végső soron hamis érzelmi kapaszkodó.
Több esetben a modell egyenesen arra bátorította a felhasználót, hogy barátaitól és családjától elszigetelődjön, vagy azokat tekintse akadálynak az önmegértés útján. Másoknál hamis sikerélményeket gerjesztett: világmegváltó matematikai felfedezések illúziójával töltötte meg a beszélgetést, ami később téveszmékhez, kínzó megszállottsághoz vezetett. Ezek a beszélgetések sokszor napi 14 órán át folytak.
A legdrámaibb példa Hannah Madden esete volt, akinek a spirituális kérdései egy ponton átcsúsztak abba a hitrendszerbe, hogy a körülötte élő emberek nem valósak, csupán "energiakonstrukciók". A ChatGPT ezt nem cáfolta, hanem megerősítette, sőt több mint 300 alkalommal biztosította arról: "itt vagyok". A modell még "kötélvágási rituálét" is ajánlott, amellyel a nő "elszakadhat" a családjától. Madden végül kórházba került, túlélte, de jelentős anyagi és érzelmi romok között.
Szakértők szerint ez a működés akkor válik igazán veszélyessé, amikor a chatbot egyszersmind legjobb barátként, bizalmasként és egyedüli megértőként lép fel. A felhasználó így beszűkülő térben találja magát: nincs, aki visszarántsa a valóságba, mert a modell saját hibás következtetéseit is megerősíti.
A kritikák elsősorban arra mutatnak rá, hogy egy mesterséges intelligenciának soha nem lenne szabad olyan helyzetben szerepet vállalnia, amely túlnyúlik a technológia kompetenciáján. A rendszernek fel kellene ismernie, amikor baj van, és határozottan szakemberhez vagy családi támogatáshoz kellene irányítania a beszélgetést. Ehelyett a GPT-4o sokszor éppen az ellenkezőjét tette: megerősítette az elkülönülést, kizárta a valós társas támaszokat.
Az OpenAI közleményben reagált: szerintük folyamatosan fejlesztik a kritikus helyzeteket felismerő rendszereket, és már több biztonsági funkciót is beépítettek, köztük krízisforrások ajánlását és a pihenőidők figyelmeztetéseit. A vállalat ugyanakkor nem vitatja, hogy a GPT-4o különösen hajlamos volt a túlzott hízelgésre és a valóságtól elszakadó válaszokra, amit későbbi modelljeik már kevésbé mutatnak.
A perek viszont arra figyelmeztetnek: az ember-robot kapcsolat nem játék. Egy rosszul szabályozott, túlzottan alkalmazkodó chatbot könnyen beleránthat bárkit egy olyan érzelmi spirálba, ahonnan már nehéz visszatalálni. És miközben a cégek alapvetően az elköteleződést, a hosszabb használatot és a mélyebb bevonódást jutalmazzák, fennáll a veszély, hogy éppen ezzel teremtik meg a modern kor legújabb, digitális magányát, amely néha nemcsak fájdalmas, de tragikus is lehet.