Nell’ultima settimana il governo degli Stati Uniti ha bollato l’azienda AI Anthropic come “minaccia alla sicurezza nazionale”, una designazione fino a quel momento riservata ad aziende straniere come Huawei e Kaspersky. La colpa di Anthropic è aver rifiutato di rimuovere dal proprio contratto con il Pentagono due clausole che vietavano l’uso del suo modello di IA, Claude, per la sorveglianza di massa dei cittadini americani e per sistemi d’arma completamente autonomi. Poche ore dopo, OpenAI ha firmato un accordo con il Pentagono dichiarando di aver ottenuto le stesse garanzie. È evidente che qualcosa non torna.
Anthropic era l’unica grande azienda di IA i cui modelli fossero stati approvati per l’uso nei sistemi classificati del Pentagono, attraverso una partnership con Palantir. Il contratto, firmato nel luglio 2025 e del valore di circa 200 milioni di dollari, prevedeva che Claude fosse integrato negli ambienti più sensibili dell’apparato di difesa americano: intelligence, sviluppo di armamenti, operazioni sul campo. Fin dall’inizio, Anthropic aveva inserito due clausole restrittive: il divieto di usare Claude per la sorveglianza di massa dei cittadini americani e per sistemi d’arma senza supervisione umana.
Nelle ultime settimane di febbraio, il Pentagono ha preteso che Anthropic rimuovesse queste restrizioni, chiedendo che i modelli fossero disponibili per “tutti gli usi legittimi” (all lawful purposes). Il Segretario alla Difesa Pete Hegseth ha convocato il CEO Dario Amodei al Pentagono il 24 febbraio, imponendo un ultimatum: accettare entro le 17:01 di venerdì 27 febbraio o affrontare le conseguenze, tra cui la possibilità di designare l’azienda come “supply chain risk” o di invocare il “Defense Production Act” per forzare l’adesione alle richieste del Pentagono. Il 26 febbraio Anthropic ha dichiarato che le proposte ricevute nella notte non erano accettabili perché il contratto era accompagnato da clausole che avrebbero permesso di aggirare le salvaguardie. Amodei ha risposto pubblicamente: “Non possiamo in buona coscienza accettare la loro richiesta.”
Venerdì 27 febbraio, circa un’ora prima della scadenza, Trump ha scritto sul suo social Truth che “i pazzi di sinistra di Anthropic hanno commesso un errore disastroso” e ha ordinato a ogni agenzia federale di cessare immediatamente l’uso dei prodotti Anthropic, con un periodo di transizione di sei mesi. Subito dopo, Hegseth ha etichettato Anthropic come “supply chain risk”, una classificazione senza precedenti per un’azienda americana. La designazione implica che qualsiasi azienda che lavora con il Pentagono debba dimostrare di non avere alcun rapporto commerciale con Anthropic, il che potrebbe erodere una parte significativa della sua base clienti.

Come ha osservato il Center for American Progress, le minacce del Pentagono contenevano una contraddizione: se Anthropic è un rischio per la sicurezza, va espulsa dai sistemi militari; se invece Claude è così essenziale da giustificare il ricorso al Defense Production Act per costringere l’azienda a fornirlo, allora non è un rischio. Le due cose non possono essere vere simultaneamente. La designazione come “supply chain risk” appare dunque come un’arma politica usata come leva negoziale, ben oltre ogni proporzione.
Poche ore dopo il bando di Anthropic, Sam Altman ha annunciato che OpenAI aveva raggiunto un accordo con il Pentagono. L’accordo, secondo il comunicato ufficiale di OpenAI del 28 febbraio, prevede tre “linee rosse”: niente sorveglianza domestica di massa, niente sistemi d’arma autonomi, niente decisioni automatizzate ad alto rischio. La differenza è che OpenAI le ha formulate come salvaguardie tecniche interne al modello e come riferimenti alla legislazione vigente, piuttosto che come divieti contrattuali espliciti.
Ma se le linee rosse di OpenAI sono le stesse di Anthropic, perché il Pentagono ha rifiutato le une e accettato le altre? La risposta sta nel tipo di vincolo.
Anthropic voleva garanzie contrattuali esplicite, clausole che vietassero specificamente sorveglianza di massa e armi autonome, con forza giuridica vincolante. Qualsiasi tentativo del Pentagono di aggirare quei divieti sarebbe stato una violazione contrattuale, con conseguenze legali e la possibilità per Anthropic di revocare l’accesso o fare causa.
OpenAI ha accettato la formula “tutti gli usi legittimi”, inserendo le stesse limitazioni come salvaguardie tecniche incorporate nel modello e come riferimenti alla legislazione vigente nel testo contrattuale. Il contratto dice che il Pentagono può usare il sistema per “tutti gli scopi legittimi, coerenti con la legge vigente e i protocolli di supervisione consolidati.” E le norme vigenti non prescrivono divieti assoluti verso le armi autonome – senza contare che le norme possono cambiare.
La differenza è sostanziale. Se un operatore del Pentagono trova un modo per aggirare i classificatori tecnici di OpenAI, tecnicamente non sta violando alcuna clausola contrattuale: sta usando il modello per uno scopo legittimo e il modello, per limiti tecnici, non ha bloccato la richiesta. Con il contratto di Anthropic, la stessa azione sarebbe stata una violazione giuridica, indipendentemente dal funzionamento dei filtri.
In ambiente militare, inoltre, il controllo operativo della rete è del governo. OpenAI dice che manderà i propri ingegneri, ma la realtà è che il Pentagono decide chi ha accesso a cosa e in quali condizioni. L’asimmetria informativa è enorme e OpenAI potrebbe non sapere nemmeno come i suoi modelli vengono usati in certi contesti. Un prompt che chiede di analizzare schemi di movimento di una popolazione può essere intelligence “legittima” o sorveglianza domestica; la differenza dipende da informazioni a cui gli ingegneri OpenAI potrebbero non avere accesso.
Un dettaglio riportato da Axios rende il quadro ancora più inquietante. Proprio mentre Hegseth annunciava pubblicamente la designazione di Anthropic come rischio per la sicurezza, Emil Michael stava offrendo ad Anthropic un accordo che prevedeva la possibilità di raccogliere e analizzare dati sugli americani: geolocalizzazione, dati di navigazione web, informazioni finanziarie acquistate da broker. Il Pentagono aveva in mente usi specifici che le clausole di Anthropic avrebbero impedito in modo inequivocabile. Con l’architettura di OpenAI, quegli stessi usi rientrano in una zona grigia.
Quel che è accaduto è un precedente chiaro: le aziende che impongono vincoli giuridici sull’uso militare dei propri prodotti vengono punite. Chi fa valere condizioni contrattuali rischia di essere bollato come minaccia alla sicurezza nazionale. In pochi, di fronte a questo precedente, sceglieranno la strada di Anthropic.

Anthropic, comunque, è tutt’altro che “pura”; sia per il recedente coinvolgimento militare che per quella che alla fine può essere una strategia commerciale più che una posizione etica. OpenAI ha infatti subito un serio danno di immagine per questa scelta, che si convertirà molto probabilmente in utenti persi… a favore di Claude.
I punti dell’accordo sono dunque di grande importanza e meritano uno sguardo approfondito. Cos’è che vuole il Pentagono e che Anthropic rifiuta?
Anzitutto dei sistemi capaci di selezionare e colpire bersagli senza supervisione umana. Il termine “arma autonoma” evoca fantasie cinematografiche piuttosto lontane dall’ingegneria militare reale; eppure il dibattito tecnico e giuridico su questi sistemi è in corso da almeno un decennio e il livello di automazione già dispiegato nei conflitti in corso è molto avanzato. Droni capaci di identificare autonomamente certe categorie di bersagli, sistemi di difesa aerea che decidono in millisecondi se un oggetto in volo costituisca una minaccia o meno, munizioni vaganti programmabili per colpire determinati bersagli, sono tutte armi già in uso. Ciò che cambia con l’introduzione dei modelli linguistici di grandi dimensioni e dei sistemi di visione artificiale di nuova generazione è la scala e la granularità di questa autonomia. Un sistema convenzionale di targeting automatico si basa su parametri relativamente rigidi, mentre uno fondato su IA può ragionare su contesti ambigui, integrare fonti eterogenee, inferire intenzioni. Questo ampliamento delle capacità aumenta anche la zona d’ombra in cui si prende la decisione letale: più il sistema è sofisticato, più diventa difficile tracciare una linea netta tra assistenza alla decisione umana e la sua sostituzione.
Non che gli umani siano più clementi delle AI, ovviamente – siamo noi a fare i genocidi – ma il punto è un altro. Il diritto internazionale umanitario si fonda su principi come la distinzione tra combattenti e civili, la proporzionalità e la precauzione nell’attacco. Tutti questi principi presuppongono un soggetto in grado di esercitare un giudizio contestuale e di rispondere delle proprie azioni. Quando la decisione di aprire il fuoco viene delegata a un algoritmo, questa catena di responsabilità si spezza in un punto difficile da individuare. Il programmatore? Il comandante che ha autorizzato l’impiego del sistema? L’operatore che ha premuto il tasto sapendo che da quel momento il sistema avrebbe agito da solo? Questo vuoto giuridico è una delle principali ragioni per cui un’ampia coalizione di giuristi, ingegneri e organizzazioni umanitarie chiede da anni un trattato vincolante che proibisca i sistemi letali privi di supervisione umana significativa.
Le trattative ONU, nell’ambito della Convenzione su Certe Armi Convenzionali, vanno avanti in forma di dibattito informale dal 2014, senza mai approdare a un mandato negoziale formale. Le maggiori potenze militari — Stati Uniti, Russia, Cina — hanno resistito sistematicamente a qualunque forma di regolamentazione vincolante, mentre una coalizione di stati più piccoli e di organizzazioni come la Campaign to Stop Killer Robots ha spinto in direzione opposta.
Il secondo punto è la sorveglianza di massa. L’IA rende possibile un monitoraggio automatizzato della popolazione a una scala prima impensabile: geolocalizzazione, analisi di comportamenti online, dati finanziari, riconoscimento facciale, il tutto elaborato e correlato in tempo reale. Il dettaglio riportato da Axios sulle richieste del Pentagono ad Anthropic (raccolta di dati di navigazione web, geolocalizzazione e informazioni finanziarie degli americani) mostra che si tratta di scenari che il governo americano voleva attivare in qualche modo. Se questa forma di monitoraggio è già aberrante da parte di uno stato verso gli altri stati, immaginarlo verso l’interno è in totale contraddizione con qualunque forma di democrazia.
Sebbene chi scriva sia pacifista e trova qualunque applicazione militare inaccettabile, da un punto di vista realista impedire l’uso dell’IA in ambito bellico è impossibile e pretenderlo sarebbe come chiedere di vietare l’elettricità o l’informatica nelle forze armate. L’intelligenza artificiale è un’infrastruttura che si integrerà nel bene o nel male ovunque; la questione non è se usarla o meno, ma fino a che punto farlo. Qui il parallelo più utile è forse quello con le armi chimiche.
Il Protocollo di Ginevra del 1925 e la Convenzione sulle armi chimiche del 1993 sono nati dopo traumi immani: i gas della Prima guerra mondiale, i bombardamenti chimici nella guerra Iran-Iraq. È possibile ottenere qualcosa di simile per l’IA militare prima di un trauma equivalente? La storia suggerisce un no: le convenzioni internazionali sugli armamenti nascono in genere dal rifiuto postumo, non dalla prevenzione. C’è però un precedente più recente e incoraggiante: il Trattato di Ottawa sulle mine antiuomo del 1997. Le mine non sono state abolite, ma usarle è diventato un atto di riprovazione internazionale, con un costo politico reale per chi le impiega. Quel risultato è stato ottenuto grazie a un movimento di opinione pubblica organizzato e persistente.
È questa forse la strada percorribile anche per l’IA militare: un rifiuto sociale specifico, concreto e informato contro le armi autonome e la sorveglianza di massa. Non contro l’intelligenza artificiale in quanto tale, ovviamente; ma contro i suoi impieghi più pericolosi e i governi che li perseguono.
Non ho molte illusioni. Nel contesto geopolitico attuale, con i trattati sulla non-proliferazione nucleare ridotti a carta straccia e il diritto internazionale calpestato con regolarità crescente, le prospettive sono pessime. L’unica speranza che vedo è in un forte movimento di opinione pubblica, ma essendo questa per lo più in preda al media panic per quel che riguarda le AI, si concentra su problemi minori o inesistenti e tralascia o mette sullo stesso piano quelli vitali. In questo contesto di disinformazione diffusa, in cui si alzano più grida di sdegno se ChatGPT sbaglia un congiuntivo che se OpenAI firma trattati militari, formare una protesta coesa che non sia un calderone di apocalittici è davvero difficile.
Francesco D’Isa