> > L'Ue vieta le app di «nudificazione» e posticipa le scadenze dell'AI Act

L'Ue vieta le app di «nudificazione» e posticipa le scadenze dell'AI Act

lue vieta le app di nudificazione e posticipa le scadenze dellai act 1774668518

Il Parlamento europeo ha votato a larga maggioranza per bandire le app che creano immagini nude non consensuali e ha rinviato alcune scadenze dell'AI Act, ma la legge dovrà essere negoziata con il Consiglio

Il Parlamento europeo ha dato via libera a una modifica dell’AI Act che introduce, tra le altre misure, il divieto delle cosiddette app di nudificazione, strumenti che possono generare immagini con nudità non consensuale a partire da foto o richieste testuali. La votazione in aula ha registrato un consenso netto: 569 voti favorevoli, 45 contrari e 23 astensioni, segnalando la determinazione dei legislatori a impedire che queste tecnologie vengano usate per ledere la dignità e la privacy delle persone.

Contemporaneamente, i deputati hanno approvato proposte che spostano in avanti alcune scadenze per l’entrata in vigore degli obblighi sui sistemi considerati high risk. Tra le novità principali figurano proroghe per la conformità dei fornitori e ritardi nell’implementazione di misure tecniche come il watermarking dei contenuti generati artificialmente. Queste scelte causano incertezza per le imprese, ma servono anche a dare più tempo per l’adeguamento normativo e per la definizione tecnica delle misure.

Cosa significa il divieto di «nudificazione»

La nuova disposizione mira a impedire la diffusione commerciale di strumenti che creano immagini intime senza il consenso dell’interessato. Per nudificazione si intende l’uso di algoritmi per rimuovere o aggiungere abiti e creare rappresentazioni false di una persona nuda. La proposta specifica che tali sistemi non potranno più essere messi a disposizione del pubblico a meno che non vi sia consenso esplicito dell’immagine originale, una condizione che rende l’uso di queste app molto limitato sul piano legale e operativo.

Conseguenze per i fornitori e responsabilità

I fornitori che permettono la nudificazione rischiano sanzioni severe: multe calcolate come percentuale del fatturato, misure pensate per dissuadere piattaforme e sviluppatori dalla commercializzazione di tali servizi. L’applicazione sarà affidata all’ufficio per l’AI della Commissione europea insieme alle autorità di sorveglianza del mercato nazionali, che dovranno verificare il rispetto delle norme e intervenire in caso di violazioni. L’obiettivo dichiarato è ridurre il danno a livello di massa, oltre a offrire strumenti di tutela alle vittime.

Rinvio delle scadenze e impatto per le imprese

Tra le modifiche approvate in aula ci sono proroghe concrete: i requisiti per i sistemi classificati high risk sono stati posticipati fino a dicembre 2027, mentre i fornitori di sistemi soggetti a norme settoriali specifiche come giocattoli o dispositivi medici avrebbero tempo fino ad agosto 2028 per adeguarsi. Anche le regole sul watermarking dei contenuti generati sono state spostate, con entrata in vigore prevista per novembre 2026. Queste date riflettono la necessità di armonizzare aspetti tecnici e pratici prima dell’entrata in funzione delle sanzioni.

Incertezza regolatoria e preparazione tecnica

Lo slittamento delle scadenze prolunga il periodo di incertezza per le aziende che sviluppano o integrano intelligenza artificiale nei propri prodotti. Sviluppatori, produttori e operatori di piattaforme devono comunque continuare a investire in controlli di qualità, valutazioni di impatto e pratiche di sicurezza informatica per non trovarsi impreparati alla scadenza definitiva. Allo stesso tempo, ritardi nella pubblicazione di linee guida tecniche possono rallentare gli sforzi di conformità e aumentare i costi di adeguamento futuro.

Prossimi passi politici e questioni sociali

La decisione del Parlamento non è l’ultima parola: ora inizierà la fase di negoziazione con il Consiglio dell’Unione europea per raggiungere un testo definitivo valido per l’intero quadro giuridico. Il Parlamento non può da solo modificare la legge, e i ministri dei 27 Stati membri dovranno trovare un compromesso durante il trilogo. Sul piano sociale, esponenti come l’eurodeputato Michael McNamara hanno sottolineato che alle azioni legislative deve accompagnarsi anche un lavoro educativo, soprattutto verso i giovani, per spiegare i rischi legati all’uso dell’AI nella diffusione di immagini e disinformazione.

La discussione pubblica include preoccupazioni sul ruolo dell’AI nella centralizzazione delle fonti di informazione e nel possibile sfruttamento di contenuti protetti da copyright senza adeguata remunerazione degli autori. Allegati casi di deepfake diffusi da alcuni sistemi hanno aumentato la pressione sui decisori. Allo stesso tempo, rimane aperto il dibattito su come bilanciare libertà d’innovazione e tutela dei diritti fondamentali, tema che continuerà a guidare le negoziazioni nei mesi a venire.