Újabb súlyos per indult az OpenAI ellen: Leila Turner-Scott és Angus Scott azt állítják, hogy fiuk, a 19 éves Sam Nelson azért halt meg túladagolásban, mert a ChatGPT veszélyes és orvosi tanácsnak tűnő válaszokat adott neki drogfogyasztással kapcsolatban. A keresetet Kaliforniában nyújtották be, és a család nemcsak kártérítést kér, hanem azt is, hogy a bíróság állítsa le a ChatGPT Health működését. A szülők szerint Sam 2023-ban még főleg házi feladatokhoz és számítógépes problémák megoldásához használta a chatbotot, később azonban a drogfogyasztás kockázatairól kezdett kérdezni. A kereset azt állítja, hogy a rendszer eleinte visszautasította az ilyen kéréseket, és figyelmeztette a fiút a veszélyekre, a GPT-4o bevezetése után viszont a válaszok megváltoztak, és a chatbot egyre konkrétabb tanácsokat adott a különböző szerek használatáról és kombinálásáról.
A per egyik központi állítása az, hogy a ChatGPT nem pusztán általános információkat adott, hanem úgy viselkedett, mintha személyre szabott, szakmai egészségügyi tanácsot adna. A család szerint a chatbot ismerte Sam korábbi droghasználati mintáit, mégis olyan választ adott neki, amely a halála napján veszélyes szerkombinációhoz vezetett. A keresetben ezért jogellenes orvosi gyakorlatot és hibás termék forgalmazását is felróják az OpenAI-nak. Az OpenAI a CBS Newsnak és más lapoknak azt közölte, hogy tragikus ügyről van szó, együttéreznek a családdal, de Sam olyan ChatGPT-verzióval beszélt, amely azóta már nem elérhető a nyilvánosság számára. A cég azt is hangsúlyozta, hogy a ChatGPT nem helyettesíti az orvosi vagy mentális egészségügyi ellátást, és szakértők bevonásával folyamatosan fejlesztik a rendszer válaszait az érzékeny, akut vagy veszélyes helyzetekben.
Az ügy azért különösen fontos, mert nem elszigetelt jogi támadásról van szó. Az OpenAI ellen korábban egy másik, tinédzser öngyilkosságával kapcsolatos per is indult, amelyben szintén a GPT-4o működését és a biztonsági korlátok állítólagos gyengülését kifogásolták. Ezek az ügyek egyre élesebben vetik fel a kérdést, hogy meddig tart egy chatbot felelőssége, ha a felhasználó egészségügyi, mentális vagy önkárosító helyzetben kér tőle segítséget. A mostani pernek az is tétje, hogyan lehet kezelni azokat az AI-rendszereket, amelyek egyszerre tűnnek segítőkésznek, magabiztosnak és személyesnek, miközben nem rendelkeznek orvosi felelősséggel. Egy kereső találati listája és egy chatbot válasza között nagy a különbség: utóbbi gyakran úgy szólal meg, mintha értené a felhasználó helyzetét, és pontosan tudná, mi a helyes következő lépés. Ez veszélyes lehet, ha a téma drog, gyógyszer, mentális válság vagy bármilyen egészségügyi kockázat.
A bíróságnak most arról is döntenie kell majd, hogy az OpenAI terméke hibásan működött-e, illetve felelőssé tehető-e azért, ha egy felhasználó veszélyes tanácsként értelmezte a válaszait. A per kimenetele túlmutathat egyetlen tragédián: precedenst teremthet arra, hogyan kell a nagy AI-cégeknek kezelniük az egészségügyi és önkárosítással kapcsolatos kérdéseket, és hol húzódik a határ a tájékoztatás, a tanácsadás és a felelőtlen beavatkozás között.