Lo scontro violento tra Pentagono e Anthropic spiega il futuro del potere tecnologico
Negli Stati Uniti sta andando in scena uno scontro tra Pentagono e Anthropic sull’intelligenza artificiale che dice molto di come verrà governata l’AI nei prossimi anni. La domanda di fondo è semplice: chi decide davvero che cosa si può fare con i modelli più potenti del mercato? Le aziende che li producono, con limiti “etici” e di sicurezza, oppure lo Stato, quando li compra e li integra nelle proprie attività?
Il caso riguarda Anthropic, la società dietro Claude, una delle principali alternative a ChatGPT. Secondo diverse ricostruzioni giornalistiche, il Pentagono avrebbe minacciato di trattare Anthropic come un “rischio per la catena di fornitura” (supply chain risk).
Il motivo è che Anthropic non vorrebbe accettare un principio tanto semplice quanto impegnativo: permettere l’uso dei propri modelli per “tutti gli scopi leciti” (all lawful purposes) su sistemi non classificati.
Pentagono e Anthropic: che cosa chiede Washington sull’intelligenza artificiale
Negli ultimi mesi, il Dipartimento della Difesa sta cercando di portare i grandi fornitori di AI su una base comune. L’idea è che, se un uso è formalmente legale, il modello deve poter essere impiegato anche per attività militari e di intelligence, senza che l’azienda imponga regole aggiuntive o blocchi.
Detta così, la richiesta sembra persino banale: “se è legale, perché no?”.
Ma qui il discorso si complica.
“Legale” non coincide sempre con “accettabile”. E soprattutto l’intelligenza artificiale è una tecnologia generalista: la stessa capacità che aiuta a riassumere documenti o scrivere codice può anche aiutare a analizzare grandi quantità di dati, automatizzare procedure e accelerare decisioni operative.
Le due linee rosse di Anthropic
Anthropic non avrebbe detto “no” a tutto. Da quanto è emerso, avrebbe però tenuto ferme due condizioni.
La prima: niente uso per costruire armi completamente autonome, cioè sistemi che possono selezionare e colpire un bersaglio senza un essere umano “nel loop” in modo significativo.
La seconda: niente impiego per sorveglianza di massa sui cittadini americani.
Sono due limiti molto specifici. Non parlano di “pacifismo” o di rifiuto del settore difesa in generale.
E proprio per questo la reazione attribuita al Pentagono è la parte più politica della vicenda.
Perché “supply chain risk” è una minaccia pesante
L’espressione “supply chain risk” è più problematica di quanto si possa pensare. In pratica, se un fornitore viene considerato “rischioso”, tutte le aziende che lavorano con il governo o con l’ecosistema della difesa possono essere spinte a tagliare ogni integrazione.
Altrimenti rischiano di compromettere contratti, certificazioni e requisiti di conformità.
Detto in modo molto semplice: il governo smette di comprare da un’azienda ritenuta rischiosa e, soprattutto, rende costoso per chiunque continuare a usare i suoi prodotti, se vuole restare dentro la filiera federale.
È un meccanismo che può trasformarsi rapidamente in una specie di “marchio di infamia” industriale. Vale ancora di più quando parliamo di software che viene integrato in strumenti e processi aziendali.
Il contesto: l’AI sta diventando infrastruttura pubblica
Questa storia non arriva nel vuoto. Negli Stati Uniti l’AI sta entrando stabilmente nella pubblica amministrazione e nel settore difesa, anche attraverso versioni dedicate e ambienti controllati su reti non classificate.
L’idea, per Washington, è che i modelli siano un pezzo di infrastruttura: come il cloud, le reti, i sistemi gestionali.
Quando una tecnologia diventa infrastruttura, lo Stato tende a comportarsi di conseguenza. Chiede standard uniformi, disponibilità, continuità di servizio. E soprattutto riduce la tolleranza verso vincoli “non negoziati” imposti dai privati.
Quello che c’è davvero in gioco, anche in Europa
Se si guarda oltre i dettagli, lo scontro Anthropic–Pentagono è un esempio molto concreto di una questione più grande: le aziende di intelligenza artificiale possono davvero controllare l’uso dei loro modelli, una volta che entrano nella macchina pubblica e militare?
Se Anthropic cede, il messaggio per tutto il settore è chiaro: i paletti “etici” sono trattabili e, davanti a un compratore come lo Stato (e alla sua filiera), il margine di autonomia delle aziende è limitato.
Se Anthropic non cede, l’esito potrebbe comunque essere istruttivo. Perché significherebbe accettare il rischio di diventare un fornitore “scomodo” nel proprio mercato domestico.
In entrambi i casi, si crea un precedente: chi ha l’ultima parola sui limiti dell’IA quando la tecnologia entra nei gangli del potere.
Ed è una domanda che presto si dovranno porre anche gli europei: non solo “che regole scriviamo”, ma quali leve reali abbiamo quando le regole incontrano la sicurezza nazionale, gli appalti pubblici e le catene di fornitura.








