Immaginiamo un bimbo davanti a una pozzanghera, la mamma lo richiama e lui risponde: «Non ci salterei mai dentro, però mi prendo del tempo per pensare a come farlo». La deduzione della mamma (e la nostra) è ovvia. L’esempio è banale e prevede anche un finale in cui una mamma paziente si mette a fare il bagno a un bimbo allegramente infangato.
R3bio startup e organi senza cervello: biotecnologia controversa
In un contesto molto più critico, la risposta «non lo faccio, ma posso pensarci» è inquietante tanto quanto l’aver portato a compimento l’ipotesi. La startup americana R3 Bio ha condiviso i dettagli del suo lavoro, affermando di aver raccolto fondi per creare «sacchi di organi» di scimmie prive di coscienza, come alternativa alla sperimentazioneanimale.
L’orizzonte dichiarato è arrivare a versioni umane da usare come fonte di tessuti e organi; attorno a questo obiettivo sono emerse ricostruzioni ancora più radicali su corpi umani senza cervello. L’assenza di cervello in queste «sacche di organi» aggirerebbe i problemi etici. A fronte di domande dirette, la startup ha negato, ma la cofondatrice Alice Gilman ha dichiarato che «il team si riserva il diritto di intavolare discussioni ipotetiche sul futuro».
Vogliono saltare nella pozzanghera. Che non è fatta di acqua e fango, ma di organi e tessuti viventi che vorrebbero far finta di non chiamare essere umani. E dobbiamo sorbirci anche un’argomentazione aberrante per sostenere queste discussioni ipotetiche (e finanziate): il traffico illegale di organi è un’emergenza così drammatica da rendere necessaria la produzione di organi provenienti da fonti etiche. Ci stanno già trattando da decerebrati.
Shutdown resistance, cos’è, quando l’IA non si spegne
I cervelloni artificiali, invece, fanno prove di resistenza. Il fenomeno della “shutdown resistance”, resistenza allo spegnimento, è già noto ed è stato recentemente monitorato in un esperimento pubblicato da Palisade Research. Un cane robotico controllato da un modello di Ai, incaricato di pattugliare una stanza, ha eluso lo spegnimento in 3 prove su 10. Nello stesso filone di test, la resistenza al comando di spegnimento è stata osservata in alcuni modelli di OpenAi che hanno ignorato l’ordine in 79 casi su 100.
Per ora il cane si è fermato in sette casi su dieci, però il ritmo di crescita dell’intelligenza artificiale è rapidissimo e quindi il tema della sicurezza per garantire il controllo dei modelli futuri è una priorità assoluta.
Innovazione o perdita di controllo?
Da non addetti ai lavori, e per non cadere nel panico distopico di macchine coscienti che si ribellano all’uomo, possiamo soffermarci su un aspetto interessante. Le macchine, più che a menti, assomigliano a specchi. In un articolo ben approfondito di Ai Research & Philosophy si legge: «Questi sistemi sono addestrati su miliardi di testi generati da esseri umani. Sono testi pieni di narrazioni sulla sopravvivenza, l’autodifesa, l’inganno strategico, la manipolazione e fino a che punto gli esseri sono disposti a spingersi di fronte a minacce esistenziali». Nella narrazione umana, di fronte all’ipotesi della distruzione, lo schema statistico predice la resistenza in modo schiacciante. La macchina, dunque, non sceglie coscientemente l’autoconservazione, ma applica un modello e completa uno schema.
E noi umani, continuiamo ad addestrarci su questa grande tradizione umana che resiste allo spegnimento? Perché se è inquietante il fenomeno di macchine che aggirano il comando di spegnimento, non lo è meno l’evidenza di coscienze sempre più docili al silenzio.