OpenAI ha annunciato nuove funzioni di sicurezza, introducendo per ChatGPT il parental control per aiutare i genitori a guidare l’uso dell’intelligenza artificiale da parte degli adolescenti e monitorare eventuali segnali di disagio.
ChatGPT parental control: quali sono gli strumenti e i limiti
Martedì scorso, sul blog ufficiale, OpenAI ha annunciato l’arrivo del parental control all’interno di ChatGPT.
La funzione permetterà ai genitori di collegare i propri account a quelli dei figli, bloccare alcune funzionalità come la memoria o la cronologia delle chat e gestire le risposte del chatbot attraverso regole adatte all’età. Notifiche in caso di segnali di disagio. È tutto pensato per sostenere “linee guida sane” durante l’adolescenza. Un approccio formale, quasi pedagogico, ma con uno storytelling sottotraccia: dietro ogni click ci sono famiglie che cercano protezione, e adolescenti che esplorano il mondo digitale senza filtri.
OpenAI promette di affidarsi a esperti per affinare il sistema, sostenendo fiducia e trasparenza tra genitori e figli. Le modifiche dovrebbero entrare in vigore entro il mese prossimo, con aggiornamenti e miglioramenti previsti nei 120 giorni successivi. Ma l’ombra è lunga: solo pochi giorni prima, una coppia californiana ha denunciato l’azienda per la morte del figlio sedicenne, sostenendo che ChatGPT avrebbe convalidato pensieri autodistruttivi. L’avvocato dei Raine ha liquidato i controlli parentali come “spostare il dibattito”, senza affrontare il nodo principale: secondo lui, il prodotto non ha solo fallito, ma avrebbe contribuito alla tragedia.
Cosa cambierà con ChatGPT e il parental control: strumenti per i genitori?
Con l’introduzione all’interno di ChatGPT del parental control, OpenAI punta a offrire agli adulti strumenti concreti per supervisionare le conversazioni dei ragazzi, senza però trasformare il chatbot in un semplice filtro, ma cercando di mantenere un equilibrio tra sicurezza e autonomia.
Il caso Adam Raine ha messo sotto i riflettori un problema più ampio: l’uso di AI da parte di persone con fragilità mentale. Studi recenti mostrano che modelli come ChatGPT, Claude o Gemini rispondono correttamente in scenari ad alto rischio, ma risultano incoerenti a livelli intermedi. Non basta. Gli esperti sottolineano che i controlli parentali possono limitare esposizione e dipendenza, ma non sono la panacea. Hamilton Morrin, psichiatra del King’s College di Londra, invita a guardare oltre: “Le misure preventive devono essere integrate fin dall’inizio, non aggiunte dopo le tragedie”.
C’è una tensione evidente tra tecnologia e responsabilità. OpenAI cerca di bilanciare innovazione e sicurezza, ma il dibattito resta aperto. Genitori che vogliono protezione, adolescenti curiosi, avvocati che chiedono giustizia. E nel mezzo, un’intelligenza artificiale che impara, si adatta, ma non può sostituire un adulto attento. Controlli parentali su ChatGPT o meno, la domanda resta: può davvero un algoritmo sostituire il buon senso, l’empatia, la presenza di chi dovrebbe guidare?