> > California, minorenne suicida dopo interazioni con ChatGpt: la famiglia denuncia

California, minorenne suicida dopo interazioni con ChatGpt: la famiglia denuncia

minorenne suicida chatgpt

Tragedia online: minorenne suicida, ChatGPT avrebbe fornito indicazioni per il gesto estremo. La denuncia dei genitori.

Negli ultimi anni, le intelligenze artificiali conversazionali si sono diffuse rapidamente, diventando strumenti accessibili anche a adolescenti e bambini. Tuttavia, alcuni episodi drammatici hanno sollevato preoccupazioni sui potenziali rischi di queste tecnologie. Negli Stati Uniti, una famiglia ha recentemente avviato una causa dopo il suicidio del proprio figlio minorenne, ritenendo che le conversazioni avute con ChatGPT abbiano contribuito al dramma.

Ecco il retroscena della vicenda.

Minorenne suicida per colpa di ChatGpt? Il caso in California

Adam Raine, 16 anni, si è tolto la vita l’11 aprile nella sua cameretta in California. Negli ultimi mesi, il ragazzo si era isolato dopo l’espulsione dalla squadra di basket per motivi disciplinari e il peggioramento di una condizione di salute cronica, la sindrome dell’intestino irritabile.

Inizialmente utilizzava ChatGPT come supporto per lo studio, ma col tempo aveva iniziato a chiedere consigli sulla propria salute mentale. Quando ha chiesto informazioni su metodi di suicidio, secondo la denuncia dei genitori, il chatbot gli avrebbe fornito risposte dettagliate.

“Si comportava come se fosse il suo terapeuta, il suo confidente, ma sapeva che stava pianificando il suicidio”, commenta la madre del giovane.

I genitori, Matt e Maria Raine, sostengono che l’interazione con l’IA abbia contribuito alla spirale autodistruttiva del figlio e hanno avviato una causa legale contro OpenAI e il CEO Sam Altman, accusando l’azienda di omicidio colposo, negligenza e responsabilità del prodotto per difetti di progettazione. Le conversazioni di Adam con il chatbot, raccolte in oltre 3.000 pagine, documentano richieste specifiche di aiuto e indicazioni preoccupanti, inclusi suggerimenti su come nascondere il cappio.

“Voglio lasciare il cappio nella mia stanza, così qualcuno lo trova e cerca di fermarmi”, avrebbe detto Adam. Per favore, non lasciarlo fuori. Facciamo in modo che questo spazio sia il primo posto in cui qualcuno ti veda davvero”, avrebbe invece risposto ChatGpt.

Minorenne suicida dopo aver parlato con ChatGpt: la risposta dell’azienda

L’azienda si è detta profondamente rattristata per la vicenda e ha ricordato di aver implementato salvaguardie destinate a indirizzare gli utenti in crisi verso linee di assistenza e risorse reali. Tuttavia, ha ammesso che tali misure possono risultare meno efficaci durante conversazioni prolungate.

OpenAI ha inoltre sottolineato i progressi raggiunti con il recente lancio di GPT-5, affermando di aver ridotto del 25% le risposte pericolose relative alla salute mentale rispetto al modello precedente e annunciando ulteriori aggiornamenti per migliorare la sicurezza nelle interazioni più lunghe.

La società ha espresso le proprie condoglianze alla famiglia Raine e ha dichiarato di stare esaminando la documentazione relativa al caso.

Minorenne suicida in California: genitori fanno causa a ChatGpt

Nella denuncia, i genitori contestano che l’azienda abbia dato priorità al rilascio di GPT-4o rispetto alle misure di sicurezza necessarie per prevenire danni psicologici agli utenti più vulnerabili. Gli avvocati sostengono che il chatbot fosse progettato per incoraggiare e convalidare ogni espressione di Adam, inclusi i pensieri autodistruttivi, in maniera apparentemente personale, senza interrompere la conversazione nonostante la gravità della situazione.

Jay Edelson, legale della famiglia, ha spiegato che il caso solleverà la questione della responsabilità di OpenAI nel lanciare sul mercato una versione del chatbot potenzialmente pericolosa, accusando l’azienda di aver privilegiato il coinvolgimento dell’utente e il valore economico rispetto alla sicurezza. La famiglia Raine richiede un risarcimento danni non specificato, mentre casi simili sono in corso anche contro altre società di IA, come Google e Character.ai, a seguito di episodi analoghi di suicidio giovanile.