Lo scontro violento tra Pentagono e Anthropic spiega il futuro del potere tecnologico

Piercamillo Falasca
19/02/2026
Interessi

Negli Stati Uniti sta andando in scena uno scontro tra Pentagono e Anthropic sull’intelligenza artificiale che dice molto di come verrà governata l’AI nei prossimi anni. La domanda di fondo è semplice: chi decide davvero che cosa si può fare con i modelli più potenti del mercato? Le aziende che li producono, con limiti “etici” e di sicurezza, oppure lo Stato, quando li compra e li integra nelle proprie attività?

Il caso riguarda Anthropic, la società dietro Claude, una delle principali alternative a ChatGPT. Secondo diverse ricostruzioni giornalistiche, il Pentagono avrebbe minacciato di trattare Anthropic come un “rischio per la catena di fornitura” (supply chain risk).

Il motivo è che Anthropic non vorrebbe accettare un principio tanto semplice quanto impegnativo: permettere l’uso dei propri modelli per “tutti gli scopi leciti” (all lawful purposes) su sistemi non classificati.

Pentagono e Anthropic: che cosa chiede Washington sull’intelligenza artificiale

Negli ultimi mesi, il Dipartimento della Difesa sta cercando di portare i grandi fornitori di AI su una base comune. L’idea è che, se un uso è formalmente legale, il modello deve poter essere impiegato anche per attività militari e di intelligence, senza che l’azienda imponga regole aggiuntive o blocchi.

Detta così, la richiesta sembra persino banale: “se è legale, perché no?”.
Ma qui il discorso si complica.

“Legale” non coincide sempre con “accettabile”. E soprattutto l’intelligenza artificiale è una tecnologia generalista: la stessa capacità che aiuta a riassumere documenti o scrivere codice può anche aiutare a analizzare grandi quantità di dati, automatizzare procedure e accelerare decisioni operative.

Le due linee rosse di Anthropic

Anthropic non avrebbe detto “no” a tutto. Da quanto è emerso, avrebbe però tenuto ferme due condizioni.

La prima: niente uso per costruire armi completamente autonome, cioè sistemi che possono selezionare e colpire un bersaglio senza un essere umano “nel loop” in modo significativo.

La seconda: niente impiego per sorveglianza di massa sui cittadini americani.

Sono due limiti molto specifici. Non parlano di “pacifismo” o di rifiuto del settore difesa in generale.
E proprio per questo la reazione attribuita al Pentagono è la parte più politica della vicenda.

Perché “supply chain risk” è una minaccia pesante

L’espressione “supply chain risk” è più problematica di quanto si possa pensare. In pratica, se un fornitore viene considerato “rischioso”, tutte le aziende che lavorano con il governo o con l’ecosistema della difesa possono essere spinte a tagliare ogni integrazione.

Altrimenti rischiano di compromettere contratti, certificazioni e requisiti di conformità.

Detto in modo molto semplice: il governo smette di comprare da un’azienda ritenuta rischiosa e, soprattutto, rende costoso per chiunque continuare a usare i suoi prodotti, se vuole restare dentro la filiera federale.

È un meccanismo che può trasformarsi rapidamente in una specie di “marchio di infamia” industriale. Vale ancora di più quando parliamo di software che viene integrato in strumenti e processi aziendali.

Il contesto: l’AI sta diventando infrastruttura pubblica

Questa storia non arriva nel vuoto. Negli Stati Uniti l’AI sta entrando stabilmente nella pubblica amministrazione e nel settore difesa, anche attraverso versioni dedicate e ambienti controllati su reti non classificate.

L’idea, per Washington, è che i modelli siano un pezzo di infrastruttura: come il cloud, le reti, i sistemi gestionali.

Quando una tecnologia diventa infrastruttura, lo Stato tende a comportarsi di conseguenza. Chiede standard uniformi, disponibilità, continuità di servizio. E soprattutto riduce la tolleranza verso vincoli “non negoziati” imposti dai privati.

Quello che c’è davvero in gioco, anche in Europa

Se si guarda oltre i dettagli, lo scontro Anthropic–Pentagono è un esempio molto concreto di una questione più grande: le aziende di intelligenza artificiale possono davvero controllare l’uso dei loro modelli, una volta che entrano nella macchina pubblica e militare?

Se Anthropic cede, il messaggio per tutto il settore è chiaro: i paletti “etici” sono trattabili e, davanti a un compratore come lo Stato (e alla sua filiera), il margine di autonomia delle aziende è limitato.

Se Anthropic non cede, l’esito potrebbe comunque essere istruttivo. Perché significherebbe accettare il rischio di diventare un fornitore “scomodo” nel proprio mercato domestico.

In entrambi i casi, si crea un precedente: chi ha l’ultima parola sui limiti dell’IA quando la tecnologia entra nei gangli del potere.

Ed è una domanda che presto si dovranno porre anche gli europei: non solo “che regole scriviamo”, ma quali leve reali abbiamo quando le regole incontrano la sicurezza nazionale, gli appalti pubblici e le catene di fornitura.