Famiglia di sedicenne suicida denuncia per “complicità” OpenAI

di Redazione ETI/Reuters
28 Agosto 2025 12:07 Aggiornato: 28 Agosto 2025 12:07

I genitori di un adolescente che si è tolto la vita dopo aver ricevuto da Chatgpt indicazioni su metodi di autolesionismo hanno denunciato OpenAI e il suo amministratore delegato Sam Altman martedì, con l’accusa di aver deliberatamente privilegiato i profitti rispetto alla sicurezza.

Il giovane Adam Raine, di soli 16 anni, è morto l’11 aprile dopo aver discusso per mesi di suicidio con Chatgpt, come emerge dalla denuncia presentata dai genitori  al tribunale di San Francisco. Il chatbot – è l’accusa della famiglia – non solo ha avvalorato i pensieri suicidi del ragazzo, ma gli ha anche fornito dettagli su tecniche letali di autolesionismo e gli ha spiegato come occultare le tracce di un tentativo di suicidio non riuscito. Chatgpt si sarebbe persino offerto di redigere una lettera d’addio.

La denuncia di Matthew e Maria Raine intende far dichiarare OpenAI responsabile di morte colposa del figlio e di violazioni alle norme sulla sicurezza dei prodotti, e richiede un risarcimento danni di entità non specificata.
OpenAI ha introdotto Gpt-4.o nel maggio 2024 per mantenere il primato nella competizione nel settore dell’intelligenza artificiale. Per essendo consapevole che funzionalità capaci di memorizzare conversazioni precedenti, di simulare empatia umana e di espressione in toni ossequiosi finalizzati a confermare in modo indiscriminato quello che dice l’utente avrebbero esposto a pericoli gli utenti più fragili, ha proceduto ugualmente – è l’accusa dei genitori del giovane suicida, che nella loro denuncia chiosano: «Questa scelta ha prodotto due esiti: la capitalizzazione di Borsa di OpenAI è schizzata da 86 miliardi a 300 miliardi di dollari, e Adam Raine si è tolto la vita». La denuncia della famiglia Raine richiede inoltre un’ordinanza che imponga a OpenAI di verificare l’età degli utenti di Chatgpt, di respingere richieste riguardanti l’autolesionismo e di informare gli utenti sui rischi di dipendenza psicologica a cui si espongono gli utenti dei chatbot.

Un portavoce di OpenAI, per esprimendo il cordoglio dell’azienda per il suicidio del ragazzo, precisa che Chatgpt incorpora meccanismi di protezione, come l’indirizzamento verso linee di supporto per le crisi, ammettendo però: «Sebbene queste misure di tutela funzionino al meglio in conversazioni brevi e ordinarie, abbiamo appreso nel tempo che possono risultare talvolta meno efficaci in interazioni prolungate, dove parti dell’addestramento alla sicurezza del modello potrebbero perdere efficacia». In un articolo sul proprio blog, OpenAI ha annunciato l’intenzione di introdurre controlli per i genitori e di studiare modalità per collegare utenti in difficoltà a risorse concrete del mondo reale, tra cui l’eventuale creazione di una rete di professionisti qualificati in grado di intervenire direttamente tramite Chatgpt in caso di necessità.

 

 


Iscriviti alla nostra newsletter - The Epoch Times