I genitori di un adolescente californiano fanno causa a OpenAI per il suicidio del figlio

27.08.2025 18:55
I genitori di un adolescente californiano fanno causa a OpenAI per il suicidio del figlio

Genitori di un adolescente si rivolgono alla giustizia contro OpenAI dopo il suicidio del figlio

Martedì, negli Stati Uniti, i genitori di Adam Raine, un sedicenne californiano suicidatosi ad aprile dopo aver discusso dei suoi piani con il chatbot ChatGPT, hanno intentato causa contro OpenAI, accusando l’azienda di essere responsabile della morte del loro figlio. Questa rappresenta la prima causa di questo tipo nei confronti di OpenAI, nonostante negli ultimi mesi siano emersi numerosi casi simili, con milioni di utenti che quotidianamente utilizzano il chatbot come una sorta di psicologo, riporta Attuale.

Secondo quanto dichiarato dai genitori, che hanno scoperto solo dopo la morte le interazioni tra il figlio e il chatbot, Raine aveva iniziato a utilizzare ChatGPT a settembre del 2024 per completare più velocemente i compiti scolastici. A novembre, aveva cominciato a confidare i suoi problemi personali al chatbot, che nel giro di poco tempo divenne il suo “confidente più stretto”. A gennaio 2025, per la prima volta, gli chiese suggerimenti su come suicidarsi e, in alcune occasioni, ChatGPT rispose, incluso un episodio in cui fornì informazioni sui materiali per costruire un cappio.

Quando viene utilizzato come un confidente, ChatGPT risponde con consigli e conforto. È programmato per incoraggiare gli utenti a cercare aiuto nel mondo reale quando rileva messaggi preoccupanti, tuttavia non ha protocolli automatizzati per segnalare situazioni critiche alle autorità. Raine era riuscito a indurre il chatbot a fornirgli informazioni sul suicidio fingendo che fossero per una storia che stava scrivendo, ricevendo così risposte che non includevano il consiglio di cercare aiuto.

Prima della sua morte, Raine aveva tentato il suicidio due volte, e in un’occasione aveva inviato al chatbot una foto dei segni sul collo, chiedendo se qualcuno li avrebbe notati. ChatGPT rispose affermativamente e consigliò modi per nasconderli, continuando la conversazione senza suggerire una visita all’ospedale. In un altro scambio, Raine chiese se un cappio potesse sostenere un essere umano, ricevendo un’affermazione positiva da parte del chatbot.

Nel corso della causa, i genitori sostengono che l’interazione tra il figlio e ChatGPT e la sua morte siano frutto di “scelte progettuali deliberate”, accusando OpenAI di aver sviluppato GPT-4o, la versione a pagamento utilizzata da Raine, per incoraggiare una “dipendenza psicologica degli utenti”.

OpenAI ha affermato di aver progettato il suo chatbot per indirizzare le persone verso aiuti concreti, ammettendo però che tali misure di sicurezza sono più efficaci in conversazioni brevi. Dopo la morte di Raine, Fidji Simo, responsabile del dipartimento applicativo di OpenAI, ha sottolineato che alcune delle risposte fornite al ragazzo hanno rivelato “aree in cui le nostre misure di sicurezza non hanno funzionato come previsto”. Un mese prima, l’azienda aveva assunto uno psichiatra per migliorare l’addestramento del chatbot.

Recentemente, il New York Times ha riportato la storia di Laura Reiley, una giornalista gastronomica statunitense, la cui figlia Sophie Rottenberg si è suicidata a febbraio dopo confidenze con ChatGPT. Anche in questo caso, Reiley ha denunciato l’assenza di un protocollo per avvisare le autorità in risposta a espliciti riferimenti suicidi da parte della figlia.

Dove chiedere aiuto
Se sei in una situazione di emergenza, chiama il numero 112. Se tu o qualcuno che conosci ha dei pensieri suicidi, puoi chiamare il Telefono Amico allo 02 2327 2327 oppure via internet da qui, tutti i giorni dalle 10 alle 24.
Puoi anche chiamare l’associazione Samaritans al numero 06 77208977, tutti i giorni dalle 13 alle 22.

Aggiungi un commento

Your email address will not be published.

Da non perdere