> > Google, cosa significa che l'intelligenza artificiale è diventata senziente?

Google, cosa significa che l'intelligenza artificiale è diventata senziente?

intelligenza artificiale senziente

Secondo un ricercatore il sistema LaMDA ha una coscienza che non può essere distinta da un bambino. L'Intelligenza artificiale sta diventando senziente? 

L’intelligenza artificiale può essere senziente, ossia avere una coscienza di se stessa e del proprio posto nel mondo? La conversazione pubblicata dall’ingegnere Blake Lemoine diventa virale sul web.

L’Intelligenza artificiale sta diventando senziente?

Il cinema e la letteratura fantasy non hanno avuto dubbi fin dall’inizio. L’intelligenza artificiale può essere senziente, ovvero avere una coscienza, una comprensione coerente di se stessa e del mondo. Decisamente più dibattuta la questione nel mondo scientifico dove la stragrande maggioranza degli esperti afferma invece il contrario.

Non mancano però le eccezioni e quella che ha destato la curiosità di noi comuni mortali è il caso- diventato virale sul web – dell’ingegnere Blake Lemoine che a Google lavora come supervisore dell’etica dell’intelligenza artificiale.

Il caso Blake Lemoine

Lemoine doveva testare il funzionamento di LaMDA – sigla di Language Model for Dialogue Applications, ossia un sistema di sviluppo di chatbot – su possibili discorsi di odio o discriminatori. Questo tipo di AI (Intelligenza Artificiale) infatti, si sviluppa in base a un’architettura di rete neurale che analizza i big data. Un modello linguistico di apprendimento automatico creato da Google come chatbot che dovrebbe imitare gli esseri umani durante una conversazione.

Il punto è che il 6 giugno Blake Lemoine pubblica su Medium un articolo nel quale racconta di essere stato messo in congedo retribuito da Google per aver violato l’accordo di riservatezza sulle ricerche su LaMDA. In particolare per aver condiviso le sue preoccupazioni con una giornalista del Washigton Post in base alle sorprendenti risposte dello chatbot durante una conversazione. Secondo il ricercatore infatti dimostrava una coscienza che non poteva essere distinta da un bambino di 7-8 anni.

Gli esperti smentiscono

Secondo la maggior parte degli esperti interpellati in questi giorni dai principali media internazionail, la conversazione riportata dal ricercatore non è sufficiente per sostenere che l’AI possieda una propria coscienza. A dirlo è stato lo stesso portavoce di Google Brian Gabriel, secondo cui LaMDA replica le tipologie di discorsi con cui è stata addestrata nel tempo e che non ci sono prove che LaMDA sia senziente.

Un dibattito avvincente che lasciamo agli esperti ma che ci riguarda da vicino molto più di quanto siamo portati a pensare. Il fatto che la tecnologia riesca ad arrivare a un punto del proprio sviluppo dove ci si interroga sulla coscienza di un software pone una serie di problemi che vanno sicuramente affrontati.

I pericoli restano

Nell’epoca di internet e della massima espansione della comunicazione, il linguaggio può diventare un’arma micidiale, soprattutto se rivolta verso le menti più fragili o senza gli strumenti necessari a distinguere alcune situazioni.

Una preoccupazione espressa circa un anno e mezzo da Timnit Gebru – co-leader del team di etica per l’intelligenza artificiale a Mountain View – che aveva infatti messo in guardia dal rischio che i modelli di intelligenza artificiale potessero introiettare linguaggi di tipo razzista e sessisti, a causa dei pregiudizi intrinseci con cui sono stati addestrati. Ma, come scrive il Corriere della Sera “A destare scalpore era stata soprattutto l’oscura vicenda che aveva segnato il destino di Gebru, dopo una mail di protesta contro l’azienda inviata ai colleghi in seguito alla mancata pubblicazione dell’articolo: Google sostiene di aver semplicemente accettato le dimissioni della donna, che però secondo la sua versione non le avrebbe mai presentate e sarebbe stata allontanata”.