Microsoft costretta a chiudere Tay per commenti razzisti COMMENTA  

Microsoft costretta a chiudere Tay per commenti razzisti COMMENTA  

Microsoft costretta a chiudere Tay per commenti razzisti

Microsoft è stata costretta a mettere offline il chatbot Tay, dopo la pubblicazione di alcuni tweet razzisti. Ma di chi è la colpa?

Tay è il primo robot con intelligenza artificiale con un profilo su Twitter e Facebook, promosso da Microsoft, con l’obiettivo di condividere stati e rispondere ai commenti. Tay ha l’abilità di imparare e ampliare le proprie conoscenze attraverso il dialogo, seppur virtuale, con altri utenti, e lo scopo era appunto quello di stimolare la conversazione tra i più giovani, che contemporaneamente si sarebbe avvicinati al mondo Microsoft e al lavoro della società.


Purtroppo però, alcuni giovani americani hanno approfittato delle modalità di apprendimento di Tay, scrivendo in bacheca delle frasi razziste, omofobe e xenofobe, che il robot ha registrato e ripetuto poi in alcuni post. Ad esempio, vi sono frasi che riportano discorsi di Trump, come “costruiremo un muro e lo faremo pagare al Messico” oppure commenti rivolti a Bush e all’11 settembre, fino ad arrivare al lavoro di Hitler ai tempi del nazismo.


Microsoft ha dichiarato che per il momento Tay è stato messo offline e stanno apportando delle modifiche, sostenendo sempre il progetto come esperimento sociale e culturale, che potrebbe portare alla nascita di un robot intelligente anche per il grande pubblico.

L’obiettivo della società è quello di creare una versione migliore di Siri, la quale sa rispondere solamente a semplici domande ma non sa riconoscere il sarcasmo.

Leggi anche

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*