12 Marzo 2026
antrophic-pentagono-usa

Poche ore prima dell’avvio dell’operazione militare congiunta tra Stati Uniti e Israele contro l’Iran, il presidente Donald Trump ordinava alle agenzie federali di interrompere “immediatamente” l’utilizzo della tecnologia di Anthropic. Un atto politico netto, muscolare, presentato come una difesa della sicurezza nazionale contro una Silicon Valley ritenuta “woke” e troppo moralista. Eppure, mentre l’ordine presidenziale rimbalzava sui media, il Comando Centrale degli Stati Uniti (Centcom) continuava a utilizzare Claude — il modello di intelligenza artificiale sviluppato dall’azienda fondata da Dario Amodei — nell’ambito dell’operazione “Epic Fury” contro Teheran. Intelligence, identificazione di obiettivi, simulazioni di scenari bellici: secondo diverse ricostruzioni, Claude sarebbe stato integrato nei sistemi di pianificazione operativa proprio nelle ore che hanno preceduto e accompagnato il raid che ha decapitato la leadership iraniana. Qui non siamo più davanti a una disputa commerciale. Siamo davanti a una frattura strutturale tra potere politico e infrastruttura tecnologica.

La rottura: il Pentagono vuole mano libera, Anthropic dice no

Lo scontro nasce su due linee rosse precise. Il Dipartimento della Difesa avrebbe chiesto ad Anthropic un accesso senza restrizioni ai propri modelli, inclusa la possibilità di:

  • utilizzare l’AI per sorveglianza interna su larga scala,
  • sviluppare o supportare armi completamente autonome,
  • rimuovere le limitazioni integrate nei sistemi di sicurezza.

Anthropic ha rifiutato. Non per antiamericanismo. Non per ideologia. Ma per una posizione che il CEO Dario Amodei ha definito di coscienza: l’intelligenza artificiale non può diventare uno strumento di sorveglianza di massa domestica né un meccanismo decisionale autonomo per l’ingaggio letale senza supervisione umana. La risposta politica è stata brutale: minacce di classificare l’azienda come “rischio per la catena di approvvigionamento”, evocazione del Defense Production Act, attacchi pubblici su Truth Social. Ma il paradosso è evidente: mentre Washington puniva Anthropic, continuava a dipendere dai suoi sistemi.

Quando la guerra dipende da un chatbot

Il caso iraniano segna un punto di non ritorno. Per la prima volta emerge con chiarezza che i modelli di linguaggio non sono più strumenti marginali di supporto analitico, ma infrastrutture integrate nei processi decisionali militari. Claude, come ChatGPT, non è un semplice “assistente”. È un sistema capace di:

  • aggregare intelligence eterogenea,
  • simulare scenari operativi,
  • valutare probabilità di successo,
  • suggerire alternative tattiche.

Non decide formalmente chi colpire. Ma struttura l’informazione che porta alla decisione. Il confine tra supporto analitico e influenza strategica si assottiglia. Quando la pianificazione militare dipende da un modello sviluppato da una società privata, la catena di comando non è più solo verticale e statale. Diventa ibrida. E questo apre una domanda gigantesca: chi controlla davvero la guerra?

OpenAI entra in scena: etica negoziabile?

Dopo la rottura con Anthropic, il Pentagono ha stretto un accordo con OpenAI. L’intesa prevede alcune “linee rosse” ufficiali: niente sorveglianza domestica di massa, niente armi autonome senza supervisione, niente decisioni ad alto rischio completamente automatizzate. Ma il fatto stesso che quelle stesse rassicurazioni non siano state accettate nel dialogo con Anthropic solleva interrogativi. Le condizioni sono davvero identiche? Oppure l’urgenza geopolitica ha reso più flessibile la definizione dei limiti? Anche Sam Altman, CEO di OpenAI, ha ammesso che l’accordo potrebbe essere apparso “opportunistico”. Le reazioni del pubblico — con un’impennata delle disinstallazioni di ChatGPT e una crescita dei download di Claude — mostrano che l’etica è diventata un fattore competitivo. Per la prima volta, gli utenti sembrano premiare la società che si oppone alla militarizzazione senza limiti.

Il vero conflitto: Stato contro Big Tech

La questione non è Trump contro Amodei. Non è Pentagono contro Silicon Valley. È molto più profonda. Per decenni, il potere militare americano si è basato su infrastrutture controllate dallo Stato o da contractor rigidamente integrati nel complesso militare-industriale. Oggi, invece, la supremazia strategica dipende da aziende private che:

  • raccolgono capitali globali,
  • operano su mercati internazionali,
  • rispondono a investitori e non a elettori,
  • sviluppano tecnologie che nessuno Stato controlla pienamente.

L’AI è l’arma atomica del XXI secolo. Ma a differenza dell’atomica, non nasce nei laboratori governativi: nasce in startup finanziate da venture capital. E questo cambia tutto.

Le armi autonome: il punto di rottura

Anthropic ha individuato due linee invalicabili: sorveglianza interna di massa e armi completamente autonome. Il secondo punto è quello più delicato. Un’arma completamente autonoma è un sistema che:

  • seleziona un bersaglio,
  • decide l’ingaggio,
  • esegue l’attacco,
  • senza intervento umano diretto.

Oggi l’AI non è sufficientemente affidabile per questo. Ma la pressione per accelerare esiste. In un conflitto ad alta intensità come quello in Medio Oriente, la tentazione di delegare velocità decisionale alle macchine è enorme. Il rischio? Trasformare un algoritmo probabilistico in arbitro di vita e morte.

Chi vincerà?

La domanda del titolo non è retorica. Vincerà il Pentagono, imponendo che ogni tecnologia sviluppata sul suolo americano sia subordinata a esigenze militari senza condizioni? Oppure vincerà Anthropic, dimostrando che anche nell’era dell’intelligenza artificiale esistono limiti morali non negoziabili? La realtà potrebbe essere più inquietante: non vincerà nessuno. Si arriverà a un compromesso opaco, dove le garanzie formali resteranno, ma la pressione geopolitica le eroderà progressivamente.

La vera questione: l’etica è compatibile con la guerra?

In fondo, la disputa non è tecnologica. È filosofica. Può esistere un’AI etica in un contesto di guerra?
Può un modello rifiutarsi di contribuire a determinate operazioni? Può un’azienda privata opporsi a richieste di uno Stato in nome di valori democratici? La risposta che emergerà nei prossimi mesi definirà il futuro della sicurezza globale. Perché se l’intelligenza artificiale diventa uno strumento totalmente subordinato alla logica militare, la soglia di escalation si abbasserà in modo drammatico. Se invece le aziende riusciranno a mantenere limiti reali, allora l’AI potrebbe restare un supporto e non diventare un decisore.

Conclusione: la guerra del futuro è già iniziata

L’attacco contro l’Iran ha mostrato qualcosa di più di una nuova fase geopolitica. Ha mostrato che la guerra moderna è già intrecciata con i modelli linguistici che usiamo ogni giorno. La vera battaglia non è solo tra Stati Uniti e Iran. Non è solo tra Israele e Teheran. È tra due visioni del potere:

  • una che vuole l’AI come arma totale,
  • una che vuole imporre limiti prima che sia troppo tardi.

Chi vincerà? Non dipenderà solo dai generali. Dipenderà da chi avrà il coraggio di dire no quando la pressione sarà massima. E oggi, nel mezzo del caos, quella parola — “no” — è diventata più esplosiva di qualsiasi missile.