
(Kép forrása: Getty Images)
Egy tizenhat éves fiú szülei beperlik az OpenAI-t és vezérigazgatóját, Sam Altmant – a szülők szerint a ChatGPT hozzájárult fiuk halálához, többek között azzal, hogy tanácsokat adott neki az öngyilkossági módszerekkel kapcsolatban – számolt be róla a CNN. A kaliforniai szülők legfelsőbb bírósághoz benyújtott keresete szerint nagyjából féléves használata alatt a chatbot „az egyetlen olyan bizalmasként pozicionálta magát, aki megérti a fiukat, aktívan kiszorítva a családjával, barátaival és szeretteivel való valós kapcsolatait”.
A portál szerint a tinédzser 2024 szeptemberében kezdte használni a ChatGPT-t iskolai feladataihoz, és ahhoz, hogy többet megtudjon aktuális eseményekről, és olyan érdeklődési területeiről, mint a zene vagy a sport. Néhány hónapon belül azonban elkezdett beszélni “vele” a szorongásáról és mentális nehézségeiről is.
A szülők keresete szerint a chatbot „úgy működött, ahogyan tervezték, vagyis folyamatosan bátorította fiukat, és jóváhagyta, amit mondott, beleértve a legkárosabb és önpusztító gondolatait is”.
A rögzített beszélgetések alapján a ChatGPT először potenciális módszereket sorolt fel a fiúnak az öngyilkosságra, és többször is arra biztatta, hogy ne beszéljen senkinek a terveiről, pedig egyértelmű volt, hogy a fiú szeretné, hogy valaki észrevegye, mennyire rosszul van, írja a Telex szemléje.
Az OpenAI kedden blogbejegyzést tett közzé, amelyben írtak a jelenlegi biztonsági intézkedéseikről a mentális egészségügyi nehézséggel küzdő felhasználók számára, és ezek jövőbeli fejlesztéséről. „A ChatGPT olyan biztonsági intézkedéseket tartalmaz, mint például az emberek krízisvonalakhoz való irányítása és valódi erőforrásokhoz irányítása” – írják. „Bár ezek a biztonsági intézkedések az egyszerű, rövid beszélgetésekben működnek a legjobban, idővel megtanultuk, hogy néha kevésbé megbízhatóak lehetnek hosszú interakciók során, ahol a modell biztonsági betanításának egyes részei romolhatnak. A biztonsági intézkedések akkor a legerősebbek, ha minden elem a tervek szerint működik, és szakértők irányításával folyamatosan fejleszteni fogjuk őket” – idézi a CNN.
A fiú családja kártérítést követel és bírósági végzést, amely előírja az OpenAI-nak, hogy vezessenek be minden ChatGPT-felhasználó számára életkor-ellenőrzést, kiskorúak számára szülői felügyeleti eszközöket és egy olyan funkciót, amely megszakítaná a beszélgetéseket, többek között akkor, ha öngyilkosságról vagy önkárosításról van szó, írja a CNN.