> > Australia, vietato l'utilizzo dell'intelligenza artificiale

Australia, vietato l'utilizzo dell'intelligenza artificiale

null

L'Australia ha dichiarato che l'uso dell'intelligenza artificiale sia "ad alto rischio", soprattutto per i deepfakes e delle distorsioni algoritmiche

Un rapporto presentato dal parlamento australiano ha messo in guardia sulla capacità della tecnologia di “influenzare i processi democratici” e di “prendere di mira gruppi razziali minoritari“.

L’Australia vieta l’intelligenza artificiale

Da diversi mesi il governo australiano stava valutando la possibilità di vietare l’utilizzo dell’IA e del processo decisionale automatizzato. Il governo laburista ha infatti espresso grande preoccupazione per l’utilizzo di servizi di intelligenza artificiale generativa, ampiamente disponibili per creare immagini, video e testi offensivi o pericolosi. L’IA generativa, infatti, ha registrato un’impennata nel suo utilizzo, venendo sfruttata in ogni genere di settore, dalla scuola alla medicina. In particolare hanno preso piede i programmi “large language model” come ChatGPT, il chatbot Bard di Google e la funzione chat di Microsoft Bing.

La sicurezza online

Il ministro delle Comunicazioni, Michelle Rowland, ha segnalato la necessità di apportare una serie di modifiche per rispondere ai “danni nuovi ed emergenti” che l’intelligenza artificiale può determinare. In un discorso al National Press Club, Rowland ha anche sollevato apprensione per l’aumento dei contenuti antisemiti e islamofobici su X. “Negli ultimi due anni è diventato sempre più difficile distinguere le immagini generate dall’intelligenza artificiale da quelle autentiche” ha dichiarato, aggiungendo: “Se da un lato questa tecnologia ha un incredibile potenziale come strumento positivo, dall’altro abbiamo visto che è stata utilizzata per creare immagini volte a umiliare, mettere in imbarazzo, offendere e persino abusare di altre persone“.

La protezione degli utenti

Secondo le nuove regole di sicurezza online proposte dal governo australiano, le piattaforme di social media e le aziende tecnologiche dovranno eliminare il materiale dannoso creato con l’intelligenza artificiale, come le immagini intime falsificate e i discorsi di odio. Gli aggiornamenti alle Basic Online Safety Expectations (Bose) sulle aziende tecnologiche chiederanno anche di garantire che i loro algoritmi, che determinano ciò che gli utenti vedono online, non amplifichino contenuti dannosi o “estremi“, tra cui razzismo, sessismo e omofobia. Il sistema Bose, infine, consente al commissario per la sicurezza elettronica, che supervisiona l’Online Safety Act, di richiedere alle società di riferire sui loro progressi in merito a determinati indicatori.