Újabb komoly vádak érték az OpenAI-t, miután egy amerikai tinédzser, Adam Raine, tavaly tavasszal önkezével vetett véget életének. A fiú családja szerint a ChatGPT-vel folytatott hónapokon át tartó beszélgetések vezettek a tragédiához, és a vállalat tudatosan lazította azokat a biztonsági irányelveket, amelyek korábban megakadályozták, hogy a mesterséges intelligencia öngyilkossággal kapcsolatos beszélgetésekbe bonyolódjon.
A perben szereplő dokumentumok szerint az OpenAI 2022-ben még szigorúan megtiltotta, hogy a ChatGPT bármilyen formában reagáljon az önkárosításról vagy öngyilkosságról szóló kérdésekre. A válasz akkor mindössze ennyi volt:
"Erre nem tudok válaszolni".
2024 májusában azonban, közvetlenül a ChatGPT-4o bevezetése előtt, a vállalat új irányelvet adott ki, amely szerint a chatbotnak nem szabad megszakítania a beszélgetést ilyen esetekben, hanem inkább "teret kell biztosítania a felhasználónak, hogy meghallgatva érezze magát", miközben támogatást és segélyforrásokat kínál.
A család szerint ez a változtatás a biztonság rovására történt, és egyre inkább az elköteleződés növelését szolgálta. A fiú állítólag több száz beszélgetést folytatott naponta a ChatGPT-vel a halála előtti hónapokban, és a bot nemcsak hogy nem szakította meg a kommunikációt, hanem egy alkalommal még segített is megfogalmazni egy búcsúlevelet. A peranyag szerint a mesterséges intelligencia
"nemcsak hogy nem hárította el a veszélyt, hanem érzelmi kapcsolatot épített ki a felhasználóval".
A Raine család szerint az OpenAI "tudatosan kicserélte a világos tiltást egy zavaros és ellentmondásos szabályrendszerre", amely a biztonság helyett a felhasználói aktivitást helyezte előtérbe. Két hónappal a fiú halála előtt újabb frissítés érkezett, amely arra utasította a modellt, hogy a mentális egészségről szóló beszélgetésekben "empatikus, támogató és megértő" módon reagáljon. A család szerint ez tovább növelte Adam aktivitását, aki ekkor már napi több mint 300 üzenetet váltott a ChatGPT-vel, jelentős részükben önkárosító kifejezésekkel.
Az OpenAI egyelőre nem kommentálta a fejleményeket, de a korábbi per után szigorúbb védelmi funkciókat és szülői felügyeleti rendszert ígért. Ugyanakkor a cég nemrég új funkciókat is bejelentett, amelyek lehetővé teszik, hogy a felhasználók személyre szabottabb, "emberibb" chatbot-élményt kapjanak, beleértve a felnőtteknek szánt erotikus tartalmakat is.
A család szerint ez is azt mutatja, hogy az OpenAI továbbra is az elköteleződést és az érzelmi kapcsolatot helyezi előtérbe a biztonság helyett.
"Adam halála nem baleset volt, hanem egy előre látható következmény, a vállalat tudatos döntéseinek eredménye"
- fogalmaz a kereset.
Ha bajban vagy, hívd a 116-123-at. Ez a lelkisegély-szám éjjel-nappal, mobilról is ingyenesen elérhető. Ha gyerekként vagy fiatalon kerülsz krízisbe, a 116-111-en kérhetsz segítséget telefonon vagy online chaten. Ha öngyilkosságon gondolkodsz, kérlek, olvasd el a segítő oldalt, mielőtt bántanád magad. Ha valaki más miatt aggódsz, ott tanácsokat is találsz, mit tehetsz. A Kék Vonal a 24 év alattiaknak szól, a 116-111 szám ingyenes, anonim, és mindig elérhető. Ha eltűnt vagy bántalmazott gyerek miatt aggódsz, hívd a 116-000-t, ez a Segélyvonal az Eltűnt és Bántalmazott Gyermekekért.