Trump e i controlli AI pre-lancio
TL;DR: L'amministrazione Trump ha invertito la propria posizione sull'AI: dopo aver smantellato le norme Biden, sta ora studiando nuove regole per la sicurezza dei modelli prima del lancio. Microsoft, Google DeepMind e xAI hanno già accettato volontariamente le review del CAISI, l'ente del Dipartimento del Commercio USA. La svolta è innescata dal modello Mythos di Anthropic.
L'amministrazione che aveva smantellato le norme AI di Biden il primo giorno di mandato sta ora costruendo il proprio sistema di controllo. La direzione è la stessa — supervisione governativa prima del lancio — ma il percorso è diverso: accordi volontari con le big tech invece di regolamentazione imposta.
Cos'è il CAISI e cosa fa
Il CAISI — Center for AI Standards and Innovation — è un ente del Dipartimento del Commercio degli Stati Uniti. Il suo ruolo è condurre valutazioni tecniche sui modelli AI frontier prima che vengano resi disponibili al pubblico.
Non è un organo di censura: valuta capacità, rischi di sicurezza e potenziale di uso malevolo dei modelli più potenti. Il risultato è un report tecnico che orienta le decisioni di sicurezza nazionale e le politiche industriali.
Il 5 maggio 2026, il CAISI ha annunciato accordi formali con Google DeepMind, Microsoft e xAI per la review pre-lancio dei rispettivi modelli. OpenAI e Anthropic avevano già accordi analoghi dal 2024, rinegoziati per allinearsi alle nuove direttive del Segretario al Commercio Howard Lutnick e all'AI Action Plan americano.
L'inversione di rotta di Trump
La narrativa dell'amministrazione Trump sull'AI era chiara fino a qualche mese fa: meno regolamentazione, più competitività. Il primo atto dell'amministrazione era stato revocare l'ordine esecutivo Biden sull'AI safety, smantellando i requisiti di test e trasparenza per i modelli più potenti.
La svolta arriva per due ragioni convergenti:
Il modello Mythos di Anthropic
L'annuncio di Mythos — il modello di Anthropic descritto come capace di identificare e sfruttare autonomamente vulnerabilità nei software — ha cambiato la conversazione a Washington. Un sistema AI in grado di trovare zero-day in autonomia non è un prodotto di consumo: è un rischio di sicurezza nazionale. L'amministrazione ha preso nota.
Le pressioni bipartisan sulla cybersecurity
Le preoccupazioni per l'uso malevolo dei modelli frontier — da parte di attori statali ostili o gruppi criminali — hanno trovato consenso trasversale al Congresso. La pressione politica ha spinto l'esecutivo a muoversi prima che una crisi reale rendesse la reazione obbligata.
Cosa prevedono gli accordi
Gli accordi firmati con CAISI non sono ancora legge. Prevedono:
- Accesso anticipato ai modelli prima del lancio pubblico
- Valutazioni tecniche su capacità offensive, cybersecurity e rischi di uso duale
- Ricerca collaborativa per sviluppare standard di sicurezza condivisi
Kevin Hassett, direttore del National Economic Council della Casa Bianca, ha dichiarato che l'amministrazione sta studiando un ordine esecutivo per formalizzare il processo — una "road map chiara" su come i sistemi AI avanzati debbano essere valutati prima del rilascio.
Volontario oggi, obbligatorio domani?
Il punto critico è la natura attuale degli accordi: volontari. Le aziende accettano perché hanno interesse a mantenere buoni rapporti con l'amministrazione e a evitare una regolamentazione più pesante imposta dall'esterno.
Il modello richiama quello del UK AI Safety Institute — che ha costruito accordi simili con le principali lab AI — e quello di Basilea per le banche: standard tecnici condivisi che diventano gradualmente norma del settore.
Se l'ordine esecutivo arriva, la partecipazione potrebbe diventare condizione per operare nel mercato federale — un leva enorme per un settore dove i contratti governativi valgono miliardi.
Il paradosso della deregulation AI
L'amministrazione Trump si trova in una posizione paradossale: ha smantellato le norme Biden in nome della libertà di mercato, ma si ritrova ora a costruire un sistema di oversight che le assomiglia strutturalmente — con la differenza che è guidato dalla sicurezza nazionale, non dalla tutela dei consumatori.
La distinzione non è banale. Un controllo orientato alla sicurezza nazionale ha obiettivi diversi da uno orientato alla trasparenza o ai diritti degli utenti. Filtra i rischi geopolitici e militari, non necessariamente quelli sociali o etici.
Conclusione
Il governo americano entra formalmente nell'ecosistema AI frontier, non come regolatore esterno ma come valutatore interno. Microsoft, Google e xAI aprono i propri modelli prima del lancio — un passo che avrebbe sembratto impossibile dodici mesi fa. Il perché è semplice: il potere dei modelli AI più avanzati ha raggiunto una soglia dove anche chi crede nella deregulation si convince che qualcuno debba controllare cosa viene rilasciato.
Fonti: CNN Business · Washington Post · CNBC · Fortune