> > Ai Act, regole e incertezze. L’Europa accelera ma il dibattito resta ac...

Ai Act, regole e incertezze. L’Europa accelera ma il dibattito resta acceso

default featured image 3 1200x900

Milano, 17 giu. (Adnkronos) - L’intelligenza artificiale resta uno dei temi sotto i riflettori dell’Ue. Con l’Ai Act in fase di implementazione il dibattito resta infatti molto acceso: i dubbi riguardano potenziali cambiamenti o addirittura il rinvio nell’attuazione di alcuni...

Milano, 17 giu. (Adnkronos) – L’intelligenza artificiale resta uno dei temi sotto i riflettori dell’Ue. Con l’Ai Act in fase di implementazione il dibattito resta infatti molto acceso: i dubbi riguardano potenziali cambiamenti o addirittura il rinvio nell’attuazione di alcuni punti cardine, mancando ancora elementi cruciali come le linee guida e il "code of practice".

La prima fase ha visto una reale implementazione il 2 febbraio 2025, proibendo quei sistemi di intelligenza artificiale catalogati da “rischi inaccettabili” e introducendo requisiti per le aziende operanti sul mercato europeo. I passi successivi sono ancora in via di definizione, e proprio di questo si è parlato durante la tavola rotonda “Ai governance tra innovazione e regole: una sfida europea” organizzata da Ispi a Milano. A confronto, speaker del mondo istituzionale e normativo, e dell’innovazione e delle imprese.

Ha aperto il confronto Andrea Bertolini, direttore del Centro sulla regolazione della robotica e Ia (Scuola Superiore Sant’Anna), con un intervento molto critico rispetto all’Ai Act, così come formulato al momento. “Intelligenza artificiale è un termine estremamente ambiguo – ha detto – e la classificazione per livelli di rischio non riesce a sopperire a questa ambiguità. I danni conseguenti dall’ambiguità concettuale si vedono nelle definizioni di applicazioni proibiti e sistemi ad alto rischio”. “Le linee guida non danno elasticità al sistema e non essendo vincolanti, creano incertezza. Non avere assoluta chiarezza sui temi tecnici significa avere divergenza nell’applicazione”. Di opinione diversa Edoardo Raffiotta, professore di diritto dell’intelligenza artificiale presso l’Università di Milano Bicocca: “Chiamare l’Ai Act colpevole della difficoltà di innovazione in Europa è ingiusto”. Il professore ha rimarcato come il vero problema sia quello dell’eccesso normativo: “Facciamo chiarezza su quali sono le regolazioni che vanno riviste o addirittura abrogate. Intanto possiamo vedere le tante regolazioni a livello statale che stanno emergendo negli Stati Uniti. Negli Usa ci saranno 48 regolamentazioni su 50 Stati, anche lì non c'è uniformità regolatoria ma questo non impedisce l'innovazione e la crescita”.

La legislazione stabilisce un quadro normativo completo che si applica a qualsiasi organizzazione coinvolta nello sviluppo o implementazione di sistemi di intelligenza artificiale che possono influenzare utenti o mercati all’interno dell’Unione europea. Il regolamento si pone l’obiettivo di affrontare eventuali storture nell’utilizzo dell’Ia. Gli obiettivi principali includono rendere le intelligenze artificiali più sicure per l’utilizzo pubblico e commerciale, mitigare i rischi alla sicurezza, garantire il controllo umano sui sistemi di Ia, proteggere la privacy di dati e garantire la trasparenza nelle applicazioni che utilizzano questa tecnologia. Il set di regole ha un enorme potenziale sul piano geopolitico e nasce con l'obiettivo di rendere l’Europa centro del soft power digitale, visto il ruolo che si ritaglierebbe come primo ente a mettere a terra una regolamentazione sistemica sui sistemi di intelligenza artificiale. Uno sforzo tutt’altro che neutro, in un periodo storico segnato da tensioni transatlantiche. A livello globale coesistono due approcci: da un lato l’Ai Act, un modello basato sul rischio, mentre negli Stati Uniti la responsabilità è ex post, con regole determinate dal mercato e un principio di minimo intervento per il quale l’innovazione viene prima della regolamentazione. La conseguenza è l’emergere di standard divergenti e una frammentazione normativa che complica ancor più le operazioni transnazionali.

Per Luca Colombo, Country Director Italia di Meta, l’intelligenza artificiale in Europa “fa fatica a muoversi”. “Noi – ha spiegato – investiamo tra i 15 e i 20 miliardi di dollari in ricerca e sviluppo all’anno che non vengono messi a terra quando arrivano in Europa. C’è la necessità di migliorare sul lato regolamentare” perché “l’Ue non avrà sviluppato i grandi modelli che oggi sono alla base di questa rivoluzione, ma ha molti spazi nel momento in cui si costruiscono le applicazioni”. Meta è al lavoro con la Commissione europea per “trovare un percorso che continui a garantire valore, ma la frammentazione o la non chiarezza della direzione da prendere non aiutano nessuno”, ha aggiunto Colombo; “abbiamo già dovuto cambiare due volte nell’ultimo anno le nostre strategie per venire incontro alle nuove regole europee, in particolare sulla pubblicità personalizzata, che è fondamentale per le aziende, in particolare per le piccole e medie che sono lo scheletro del nostro sistema economico. È il momento di fare un punto della situazione perché questa incertezza non aiuta né noi, né il resto del mercato”.