Microsoft costretta a chiudere Tay per commenti razzisti

Microsoft

Microsoft costretta a chiudere Tay per commenti razzisti

Microsoft costretta a chiudere Tay per commenti razzisti

Microsoft è stata costretta a mettere offline il chatbot Tay, dopo la pubblicazione di alcuni tweet razzisti. Ma di chi è la colpa?

Tay è il primo robot con intelligenza artificiale con un profilo su Twitter e Facebook, promosso da Microsoft, con l’obiettivo di condividere stati e rispondere ai commenti. Tay ha l’abilità di imparare e ampliare le proprie conoscenze attraverso il dialogo, seppur virtuale, con altri utenti, e lo scopo era appunto quello di stimolare la conversazione tra i più giovani, che contemporaneamente si sarebbe avvicinati al mondo Microsoft e al lavoro della società.

Purtroppo però, alcuni giovani americani hanno approfittato delle modalità di apprendimento di Tay, scrivendo in bacheca delle frasi razziste, omofobe e xenofobe, che il robot ha registrato e ripetuto poi in alcuni post. Ad esempio, vi sono frasi che riportano discorsi di Trump, come “costruiremo un muro e lo faremo pagare al Messico” oppure commenti rivolti a Bush e all’11 settembre, fino ad arrivare al lavoro di Hitler ai tempi del nazismo.

Microsoft ha dichiarato che per il momento Tay è stato messo offline e stanno apportando delle modifiche, sostenendo sempre il progetto come esperimento sociale e culturale, che potrebbe portare alla nascita di un robot intelligente anche per il grande pubblico.

L’obiettivo della società è quello di creare una versione migliore di Siri, la quale sa rispondere solamente a semplici domande ma non sa riconoscere il sarcasmo.

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


Leggi anche

Hotmail
Microsoft

Come esportare le email Hotmail

16 agosto 2017 di Notizie

Con Outlook, erede di Hotmail, puoi esportare sul computer le tue email più importanti con pochi clic, scegliendo il formato che preferisci.