L’intelligenza artificiale di Anthropic, azienda tech in rotta con il presidente Usa Donald Trump, è stata utilizzata negli attacchi all’Iran. Risale al 27 febbraio la decisione di Trump di firmare un ordine esecutivo per bandire l’uso di Claude da tutte le agenzie federali, bollando Anthropic come un’organizzazione di estrema sinistra e un rischio per la sicurezza nazionale.
Ecco Il paradosso: appena poche ore dopo l’annuncio della messa al bando, il Comando Centrale degli Stati Uniti ha impiegato proprio i modelli di Anthropic per coordinare una massiccia operazione militare in territorio iraniano.
Il nodo al centro del litigio tra il ceo di Anthropic, Dario Amodei, e la Casa Bianca, è il rifiuto del primo di concedere al Dipartimento della Difesa l’accesso illimitato ai propri sistemi. L’azienda ha insistito sul mantenimento di rigide clausole etiche, specificamente progettate per impedire che Claude venga utilizzato per la sorveglianza di massa dei cittadini o per lo sviluppo di sistemi d’arma letali completamente autonomi, i cosiddetti robot killer. Posizione interpretata dall’amministrazione Trump come un atto di insubordinazione ideologica. In un post su Truth, il Presidente ha accusato l’azienda di voler imporre i propri termini di servizio sopra la Costituzione degli Stati Uniti, definendo i dirigenti di Anthropic come radicali che mettono a rischio le vite americane. Il Segretario alla Difesa, Pete Hegseth, ha designato Anthropic come un rischio per la catena di approvvigionamento, un’etichetta solitamente riservata ad aziende di nazioni avversarie come la cinese Huawei.
Secondo le rivelazioni del Wall Street Journal, durante i raid contro obiettivi strategici in Iran avvenuti tra il 28 febbraio e il primo marzo, il Pentagono non ha potuto fare a meno di Claude. L’intelligenza artificiale di Anthropic, integrata da tempo nelle reti classificate del governo tramite partner come Palantir, è stata fondamentale per elaborare enormi moli di dati provenienti da droni, satelliti e intercettazioni. Claude ha permesso di identificare i bersagli con una precisione millimetrica e di simulare in tempo reale gli scenari di reazione iraniani, fornendo ai comandanti del CENTCOM una consapevolezza situazionale che altri sistemi attualmente non sono in grado di replicare con la stessa velocità e affidabilità.
Sebbene l’ordine esecutivo imponga un bando immediato, i vertici militari hanno ottenuto un periodo di grazia di sei mesi per completare la transizione.
Claude è radicato nei protocolli di sicurezza nazionale fin dal giugno 2024, quando divenne il primo modello di frontiera a operare su reti governative sicure. Era stato già utilizzato con successo in operazioni ad alto profilo, come la cattura del presidente venezuelano Nicolás Maduro nel gennaio 2026. Sostituire un’infrastruttura così complessa non è un’operazione che si risolve con un colpo di penna presidenziale. Mentre OpenAI e altre aziende si sono affrettate a proporsi come alternative, assicurando di voler collaborare pienamente con il governo, i servizi di sicurezza militare sanno bene che i modelli concorrenti potrebbero richiedere mesi di adattamento per raggiungere lo stesso livello di integrazione operativa.
© Riproduzione riservata