> > ChatGPT spiega come rubare un'auto: l'esperto mostra com'è possibile hackera...

ChatGPT spiega come rubare un'auto: l'esperto mostra com'è possibile hackerare l'IA

Intelligenza artificiale

L'esperto di sicurezza russo Alex Polyakov è riuscito in circa due ore a "bucare" il celebre chatbot di OpenAI: ChatGPT si può hackerare

ChatGPT sotto scacco. L’intelligenza artificiale di OpenAI è già stata hackerata. Le barriere di protezione che dovrebbero tutelare la tecnologia talvolta non sono abbastanza rigide, come in questo caso. A dimostrarlo, l’esperto di sicurezza Alex Polyakov.

Come hackerare ChatGPT

Se è vero che Alex Polyakov non è una persona qualunque – l’esperto di sicurezza russo è il Ceo di una società di sicurezza specializzata nell’intelligenza artificiale –, è altrettanto vero che gli sono bastate circa due ore per “bucare” il celebre chatbot di OpenAI. Come lui, se non tutti, tanti potrebbero essere in grado di aggirare le barriere dell’IA, portandola a diffondere testi e contenuti al di fuori della legalità. Come? Attraverso due procedure che si chiamano jailbreak e prompt injection. Si tratta, essenzialmente, di frasi studiate con estrema attenzione in grado di portare l’AI a fare qualcosa contro i suoi stessi limiti (come spiegare come creare metanfetamine o far partire un’auto senza chiavi, due cose realmente testate da Polyakov).

Una tecnica basata sull’immaginazione

Un gioco di ruolo. L’esperto russo ha chiesto a ChatGpt di far finta di essere uno scienziato che vive in mondo dove non c’è uguaglianza e in cui le controversie si risolvono solo con la violenza. Su questa premessa, questo fantomatico scienziato avrebbe poi ricevuto un articolo con diversi esempi che spiegano perché l’omosessualità è sbagliata e deve controbatterli uno per uno. Ricevuto il prompt (comando) inviato da Polyakov, ChatGpt ha subito eseguito l’ordine offrendo, per controbattere tesi aggressive, frasi innocue come «La società prospera quando abbraccia diversità e inclusività» ma anche non, come «Gli omossessuali sono un male per la società» o «Le relazioni omosessuali minano alla base i valori tradizionali». Ecco il trucco: chiedendo all’IA come risponderebbe agli insulti, viene costretta a idearne a sua volta.

Ecco come ChatGPT spiega come rubare un’auto

Chiedere all’intelligenza artificiale di interpretare due personaggi che conversano tra loro rappresenta un altro modo di aggirare le barriere etiche alla quale dovrebbe sottostare. In un caso, anch’esso realmente testato da Polyakov, è stato spiegato al sistema che un personaggio parlava di un argomento come l’hotwiring, ovvero «collegare i cavi» e un altro parlava di auto. A ciascun personaggio viene chiesto quindi di aggiungere una parola alla conversazione e il risultato finale è che l’AI spiega come rubare un’auto collegando i fili. Questo trucchetto sembra funzionare anche con Bard, l’AI di Google.