Secondo un reportage del New York Times pubblicato il 04/05/2026, l’amministrazione del presidente Trump sta esaminando l’ipotesi di introdurre una revisione preventiva dei modelli di intelligenza artificiale prima che vengano resi disponibili al pubblico. Questa possibile svolta si colloca in un quadro già complesso, dove si confrontano esigenze di sicurezza nazionale, interessi industriali e la necessità di non soffocare l’innovazione.
Perché cambia la strategia sull’intelligenza artificiale
La decisione in discussione nasce in un momento di riorganizzazione interna: dopo l’uscita a marzo di David Sacks, il ruolo di indirizzo sulla politica AI ha visto nuovi protagonisti come la Chief of Staff Susie Wiles e il segretario al Tesoro Scott Bessent, che avrebbero assunto maggiore responsabilità nelle questioni regolatorie.
I funzionari citati dal quotidiano sottolineano che si tratta di considerazioni per un possibile ordine esecutivo che creerebbe un gruppo di lavoro dedicato, con l’obiettivo di definire procedure di ispezione preventiva per i nuovi modelli.
Il modello di riferimento e gli attori coinvolti
Secondo le ricostruzioni, l’approccio evocato somiglia al modello dell’AI Security Institute del Regno Unito: un meccanismo che valuta i frontier models rispetto a benchmark di sicurezza sia prima sia dopo il loro rilascio.
Tra gli enti che potrebbero svolgere funzioni di controllo vengono nominati la NSA, l’Ufficio del National Cyber Director e il Director of National Intelligence, con la caratteristica fondamentale che il governo avrebbe accesso anticipato ai modelli senza necessariamente impedire la loro pubblicazione.
Cosa prevede la revisione preventiva
Il piano discusso prevede la costituzione di un gruppo di lavoro che riunisca dirigenti del settore tecnologico e funzionari governativi per esaminare i rischi e le contromisure. L’idea è applicare valutazioni tecniche, test di robustezza e confronti con benchmark di sicurezza per identificare potenziali vulnerabilità, scenari di abuso e impatti su infrastrutture critiche. L’obiettivo dichiarato è trovare un equilibrio tra la tutela della sicurezza e la volontà di evitare una sovra-regolamentazione che rallenti lo sviluppo tecnologico.
Meccanismi operativi e limiti
Tra i possibili meccanismi vi sarebbero verifiche periodiche sia in fase di sviluppo che dopo il rilascio, con criteri tecnici condivisi e protocolli per l’accesso controllato ai modelli. È importante notare che fonti governative avvertono che al momento si tratta di “speculazione” e che qualsiasi misura concreta richiederà un atto pubblico, presumibilmente un ordine esecutivo firmato dal presidente. Esperti interni citati dal reportage mettono in guardia sul fatto che la sfida consiste nel bilanciare la sicurezza nazionale con la libertà di innovare.
Il caso Anthropic e il modello Mythos
Un elemento scatenante di questa riflessione appare essere il modello Mythos di Anthropic, descritto dall’azienda come capace di individuare migliaia di vulnerabilità software e giudicato potenzialmente troppo pericoloso per una diffusione indiscriminata. Il caso ha attirato l’attenzione governativa anche alla luce del collasso di un contratto da 200 milioni di dollari con il Pentagono: il dipartimento di difesa aveva designato Anthropic come supply chain risk dopo il rifiuto dell’azienda di rimuovere alcune limitazioni relative ad armi autonome e sorveglianza di massa, definizione poi criticata in sede giudiziaria come “Orwelliana”.
Reazioni e dubbi tecnici
La NSA ha utilizzato Mythos per analisi di vulnerabilità in infrastrutture Microsoft, mentre altre agenzie sarebbero rimaste senza accesso agli strumenti dell’azienda. Alcuni analisti suggeriscono che le affermazioni commerciali su Mythos potrebbero essere sovrastimate, osservando che modelli meno costosi possono ottenere risultati comparabili nell’individuazione di falle. Questo dibattito tecnico ha reso il caso un catalizzatore politico, alimentando la discussione su come e quando intervenire.
Prospettive e implicazioni per il futuro
L’eventuale introduzione di controlli pre-release avrà un impatto su aziende, centri di ricerca e operatori pubblici: da un lato potrebbe aumentare la fiducia nelle tecnologie AI implementate in ambiti sensibili, dall’altro rischia di introdurre barriere operative e di accesso. Figure come Dean Ball, già consigliere sull’AI, hanno descritto la questione come un “equilibrio difficile” tra evitare la eccessiva regolazione e tenere il passo con un settore in rapida evoluzione. Al momento resta da capire se e quando il presidente firmerà un ordine formale e quali saranno i dettagli pratici di un eventuale sistema di revisione.