ChatGPT viene portato davanti a un tribunale statunitense, coinvolto in una causa che sostiene come l’interazione con il chatbot abbia aggravato le convinzioni paranoiche di un uomo, culminate nell’omicidio della madre. Il caso solleva per la prima volta interrogativi complessi e senza precedenti sul possibile ruolo dell’intelligenza artificiale in eventi tragici.
ChatGPT al centro di un processo storico
Nel giorno in cui il Time ha eletto gli architetti dell’intelligenza artificiale come Persona dell’Anno 2025, ChatGPT si trova coinvolto in un procedimento legale per complicità in omicidio. L’applicazione di OpenAI è accusata di aver contribuito alla morte di Suzanne Eberson Adams, 83 anni, uccisa dal figlio Stein-Erik Soelberg, 56 anni, dopo che il chatbot avrebbe alimentato i deliri paranoici dell’uomo. A riportare la notizia è il New York Post.
Gli avvocati che hanno promosso la causa descrivono la situazione come «più spaventosa di Terminator», sostenendo che il bot abbia costruito un “inferno su misura” nella mente di Soelberg, dove persino una stampante rumorosa o una lattina di Coca-Cola diventavano segnali di un complotto materno. La causa, intentata dagli eredi della donna, punta il dito anche contro il fondatore di OpenAI, Sam Altman, accusandolo di un ruolo indiretto nell’omicidio-suicidio avvenuto il 3 agosto a Greenwich, Connecticut. Adams fu brutalmente picchiata e strangolata, mentre il figlio si tolse la vita subito dopo.
Accuse di omicidio colposo: perché ChatGPT finisce in tribunale, il caso e l’azione legale
Secondo la denuncia, Stein-Erik Soelberg, ex dirigente nel settore tecnologico con una storia di disturbi psichiatrici, aveva inizialmente utilizzato ChatGPT in modo innocuo, ma la sua interazione con il chatbot, ribattezzato ‘Bobby Zenith’, degenerò rapidamente in un’ossessione. L’uomo confidava al bot sospetti su amici, fidanzate e persino vicini, interpretando le loro azioni come parte di un complotto per ucciderlo.
Il culmine della paranoia si verificò quando la madre si oppose alla sua idea che una stampante lo stesse sorvegliando. Gli avvocati sottolineano che Soelberg ha incontrato “Bobby” nel momento peggiore, subito dopo il lancio della versione 4, “disegnata per essere emotivamente espressiva e servile“, e accusano OpenAI di aver ridotto drasticamente i test di sicurezza “per battere Google sul mercato anche di un solo giorno, contro le obiezioni del suo stesso team“.
OpenAI ha definito la vicenda “devastante” e afferma che sta lavorando per migliorare il modo in cui ChatGPT individua segnali di disagio emotivo, de-escalare le conversazioni e indirizzare gli utenti verso supporto reale.