AI Act e National Policy Framework USA
È stato appena pubblicato un documento dell'amministrazione USA su AI. In attesa di un'analisi più dettagliata, ho chiesto a GenAI di fare un confronto con AI Act. Ecco i risultati.
In queste ore, l’amministrazione USA ha pubblicato un documento che definisce il National Policy Framework in materia di intelligenza artificiale. Ovviamente, la prima cosa che ho pensato di fare è effettuare un confronto tra questo documento e l’AI Act dell’Unione Europea.
Ho chiesto ad un amico giurista di aiutarmi a fare un confronto ragionato. Nel frattempo, però, ho anche chiesto a GenAI di effettuare questo confronto. E in realtà ne ho approfittato anche per fare un esercizio di comparazione tra diversi LLM:
Ho usato Perplexity Pro e Claude Pro.
Ho chiesto di fare il confronto in diverse modalità:
Claude Sonnet diretto.
Perplexity usando Claude Sonnet.
Ho poi chiesto a Claude Sonnet di fare un confronto e di includere quanto Perplexity ha ritenuto rilevante e aggiuntivo rispetto all’analisi svolta direttamente da lui.
Giudizio di ChatGPT (via Perplexity) su quanto scritto con Claude Sonnet.
Perplexity usando ChatGPT.
In fondo al post ho incluso i due file principali che ho generato. Ma vediamo cosa è emerso da questo confronto doppio.
La sintesi del confronto dei due approcci UE e USA
Questa la sintesi proposta da Claude Sonnet (Punto 2.a) del confronto tra i due approcci UE e USA (il documento contiene altre sezioni con analisi più di dettaglio):
Sintesi valutativa: due filosofie regolatorie inconciliabili?
Il confronto tra l’AI Act e il National Policy Framework rivela una divergenza che non è semplicemente di grado ma di paradigma. Tre fratture filosofiche strutturano l’intero divario.
Primo, il rapporto tra precauzione e innovazione. L’AI Act incarna il principio di precauzione europeo Taylor & Francis Online nella sua forma operativa più ambiziosa: regolare prima che il danno si verifichi, attraverso una tassonomia del rischio giuridicamente vincolante. Il framework USA adotta la logica opposta della permissionless innovation: l’intervento regolatorio è giustificato solo in presenza di danni concreti e dimostrati, e ogni obbligo ex ante è percepito come freno alla competitività. The Daily Economy Si tratta della manifestazione più recente di una tensione transatlantica che risale almeno alla regolazione degli OGM negli anni Novanta.
Secondo, la concezione dei diritti. L’AI Act è costruito su una architettura dei diritti fondamentali: EUR-Lex diritto alla spiegazione (art. 86), protezione delle categorie vulnerabili, divieti assoluti su pratiche lesive della dignità umana, valutazioni d’impatto sui diritti fondamentali. L’individuo è concepito come soggetto titolare di pretese giuridicamente azionabili nei confronti dei sistemi algoritmici. Il framework USA concepisce invece l’individuo primariamente come consumatore e cittadino-elettore: le tutele si concentrano sulla protezione dei minori online, sulla libertà di espressione contro la censura governativa, e sulla proprietà intellettuale dei creatori. whitehouse Non esiste un diritto alla spiegazione, né un quadro antidiscriminatorio algoritmico, né un obbligo generale di trasparenza.
Terzo, il modello di governance. L’UE ha costruito un’infrastruttura istituzionale dedicata — Ufficio europeo per l’IA, Comitato, Forum consultivo, Panel scientifico, European Commission organismi notificati, banca dati pubblica — che riflette la tradizione europea dello Stato regolatore tecnico. Gli USA rifiutano esplicitamente la creazione di nuove istituzioni, preferendo la distribuzione della supervisione tra agenzie esistenti e la delega agli standard industriali. whitehouse Questo riflette una diffidenza strutturale verso la regulatory capture burocratica, ma rischia — come hanno osservato critici come l’Alliance for Secure AI — di creare un vuoto di accountability in cui nessuna istituzione è responsabile della supervisione complessiva dell’ecosistema IA.
Va tuttavia notata una dinamica convergente paradossale: proprio mentre gli USA si orientano verso la deregolazione, l’UE mostra segnali di ripensamento — il Digital Omnibus, il possibile rinvio degli obblighi per i sistemi ad alto rischio al dicembre 2027, SecurePrivacy il ritiro della Direttiva sulla responsabilità IA — spinta dall’ansia competitiva Carnegie Endowment for International Peace cristallizzata nel Rapporto Draghi. Questa convergenza parziale non annulla il divario strutturale, ma suggerisce che entrambe le sponde dell’Atlantico stiano cercando un equilibrio tra tutela e innovazione, partendo da poli opposti e avvicinandosi — pur con cautela — verso un centro gravitazionale ancora indefinito.
Il giudizio di Perplexity/ChatGPT
Questo è quello che invece dice Perplexity/ChatGPT sul documento prodotto da Claude Sonnet e su come lo riscriverebbe lui (Punto 2.d):
Ho ripetuto l’analisi sul contenuto del PDF e il merito di fondo resta sostanzialmente lo stesso: il documento descrive correttamente una divergenza strutturale tra AI Act europeo, vincolante e risk-based, e framework statunitense, non vincolante e orientato a un approccio light-touch e settoriale.
Le differenze che rilevo non sono tanto nella tesi centrale, quanto nel grado di prudenza, nello stile argomentativo e in alcuni passaggi che nel testo allegato sono più assertivi di quanto consiglierei.
Allineamento sostanziale
Sul nucleo dell’analisi, il documento è convincente: identifica bene la contrapposizione tra hard law europea e soft law americana, tra classificazione del rischio nell’UE e assenza di una tassonomia equivalente nel framework USA, e tra centralizzazione istituzionale europea e rifiuto statunitense di creare nuove autorità dedicate.
Anche la lettura politico-filosofica è coerente: il PDF interpreta l’UE come orientata alla tutela dei diritti fondamentali e gli USA come più focalizzati su innovazione, competitività e standard industriali volontari.
Differenze di tono
Il testo allegato usa un tono quasi accademico-contensioso, con formule forti come “traiettorie radicalmente divergenti”, “filosofie regolatorie inconciliabili” e “assenza istituzionale”, che rendono l’argomentazione molto netta.
Io formulerei lo stesso punto in modo più cauto: la divergenza è reale, ma il PDF tende a presentarla come dicotomia quasi assoluta, mentre alcuni segnali che lo stesso documento menziona — sandbox, alleggerimenti per PMI, ripensamenti europei, possibile convergenza parziale — suggeriscono un quadro più dinamico e meno binario.
Differenze metodologiche
Claude, in questo elaborato, ha costruito un testo “tesi-driven”: prima definisce la frattura paradigmatica, poi organizza tutto in assi interpretativi che rafforzano quella conclusione.
Io avrei dato più spazio a una distinzione tra fatti normativi certi, inferenze interpretative e previsioni politico-istituzionali; nel PDF questi tre piani a volte sono molto ben intrecciati sul piano retorico, ma meno separati sul piano metodologico.
Punti più deboli
I passaggi più fragili, a mio avviso, sono quelli previsionali o valutativi, per esempio quando il testo dice che l’approvazione legislativa federale appare improbabile prima delle midterm del 2026, o quando attribuisce in termini molto marcati determinate intenzioni strategiche al framework USA.
Allo stesso modo, alcune formulazioni comparative — per esempio l’idea che il framework USA non preveda “alcun” meccanismo di accountability o che il vuoto istituzionale sia quasi totale — sono efficaci come sintesi, ma meritano più qualificazioni perché negli USA la supervisione può comunque passare attraverso agenzie esistenti, anche se in forma non centralizzata.
Differenze pratiche
Se dovessi riscriverlo “in stile ChatGPT”, lo renderei meno perentorio e più utile per un lettore decisionale, con tre accorgimenti: distinguerei meglio ciò che è già diritto vigente da ciò che è solo raccomandazione politica; ridurrei alcune formule assolute; aggiungerei una sezione finale su implicazioni operative per imprese UE, imprese USA e gruppi multinazionali.
In breve, il documento allegato è forte sul piano della struttura e dell’argomentazione comparata, mentre la mia versione sarebbe probabilmente più sobria, più esplicita nel segnalare i margini di incertezza e più orientata all’uso pratico che alla tesi interpretativa.
Il confronto fatto da Perplexity/ChatGPT
A questo punto ho chiesto a ChatGPT (via Perplexity) di produrre il documento di confronto tra i due approcci UE e USA.
Ecco i due principali file che ho generato con i diversi strumenti.
Buona lettura!
© 2026 Alfonso Fuggetta & Sonia Montegiove. Salvo diversa indicazione, tutti i contenuti di questa pubblicazione sono protetti da copyright e rilasciati con licenza CC BY-NC-ND 4.0: https://creativecommons.org/licenses/by-nc-nd/4.0/deed.it



