AGI - Si fa sempre più teso il braccio di ferro tra Anthropic, una delle principali aziende di intelligenza artificiale negli Stati Uniti, e il Pentagono sull'uso militare dei suoi modelli, in particolare per applicazioni che potrebbero ricadere nel perimetro di armi autonome letali e sorveglianza su larga scala. Al centro della disputa, riporta il 'Washington Post', anche il racconto divergente di un confronto avvenuto nelle scorse settimane su uno scenario estremo: l'eventualità di un attacco nucleare contro gli Stati Uniti e l'uso del chatbot Claude per contribuire a intercettare un missile balistico intercontinentale.
Secondo un funzionario della Difesa citato dal quotidiano, il capo della tecnologia del Pentagono avrebbe ricondotto il dibattito a una domanda secca: se un Icbm fosse lanciato contro gli Usa, le forze armate potrebbero usare Claude per aiutare ad abbatterlo? La risposta attribuita all'amministratore delegato di Anthropic, Dario Amodei, avrebbe irritato i vertici militari: "Potete chiamarci e ci lavoriamo insieme", avrebbe detto in sostanza, secondo la ricostruzione della fonte. Anthropic nega però che Amodei abbia mai risposto in questi termini.
La versione di Anthropic
Un portavoce della società ha definito il racconto "manifestamente falso" e ha affermato che l'azienda ha accettato che Claude possa essere impiegato per la difesa missilistica. Resta il fatto che, sempre secondo fonti ufficiali, quell'episodio - insieme a un altro caso citato dal Pentagono relativo all'uso di Claude in un'operazione collegata alla cattura del leader venezuelano Nicolas Maduro - sarebbe diventato uno dei punti di rottura in uno scontro ormai apertamente politico e istituzionale.
La situazione si è ulteriormente inasprita dopo un incontro faccia a faccia tra Amodei e il segretario alla Difesa, Pete Hegseth. A quel punto, sostiene il 'Washington Post', le parti avrebbero iniziato un confronto su chi debba avere l'ultima parola: il governo, che rivendica libertà d'impiego per "tutti gli scopi leciti", o il fornitore privato, che invoca limiti contrattuali e "linee rosse" etiche.
Il Pentagono ha fissato un ultimatum: Anthropic ha tempo fino alle 17:01 di oggi per ritirare le sue obiezioni all'uso di Claude in relazione ad armi autonome e a forme di sorveglianza di massa su cittadini statunitensi. In caso contrario, secondo quanto riferito da funzionari citati dal giornale, l'amministrazione potrebbe valutare l'impiego di poteri governativi per costringere l'azienda a consegnare comunque la tecnologia, arrivando anche a escluderla da futuri appalti con la Difesa.
Il portavoce capo del Pentagono, Sean Parnell, ha scritto su X che il Dipartimento "non ha alcun interesse" a condurre sorveglianza domestica di massa né a schierare armi autonome, ma che intende usare l'IA per "tutti gli scopi leciti". "È una richiesta semplice e di buon senso, che impedirà ad Anthropic di mettere a rischio operazioni militari critiche e potenzialmente i nostri uomini e donne in uniforme", ha aggiunto. In una dichiarazione diffusa martedì in tarda serata, Amodei ha replicato che Anthropic è pronta a continuare a lavorare con la Difesa ma non intende cambiare posizione. A suo avviso, gli attuali sistemi di IA non sarebbero abbastanza affidabili per alimentare armamenti robotici senza aumentare il rischio per truppe e civili. E le norme esistenti sulla sorveglianza interna non terrebbero conto delle nuove capacità di "snooping" che l'IA renderebbe possibili. "In un ristretto insieme di casi, crediamo che l'IA possa indebolire, anziché difendere, i valori democratici", ha affermato, sostenendo che due specifici casi d'uso "non sono mai stati inclusi nei nostri contratti con il Dipartimento della Difesa" e "non dovrebbero esserlo ora".
Il ruolo di Anthropic e la concorrenza nel settore
Anthropic è stato il primo grande "AI lab" a siglare un accordo per lavorare su reti militari classificate, alla fine del 2024, ma la sua posizione si è gradualmente ridotta mentre concorrenti come Google, OpenAI e xAI intensificavano i rapporti con la Difesa. Secondo funzionari citati dal quotidiano, altre aziende avrebbero accettato la clausola sugli "scopi leciti" almeno per lavori non classificati, e xAI avrebbe firmato anche per sistemi classificati. Il confronto, osservano analisti, potrebbe avere un impatto di lungo periodo sul rapporto tra industria dell'IA e apparato militare americano: il rischio, per molte aziende, è che collaborare con il Pentagono significhi perdere il controllo sulle proprie innovazioni.
La disputa sulla condivisione della tecnologia e la reputazione
Un punto particolarmente controverso è la prospettiva - evocata da alcuni funzionari - di ricorrere al Defense Production Act per imporre la condivisione della tecnologia: un'ipotesi su cui gli esperti si dividono, sia per l'applicabilità sia per le ricadute sul mercato. Intanto la disputa è diventata anche uno scontro di reputazione. Emil Michael, sottosegretario alla Difesa per ricerca e ingegneria, che avrebbe un ruolo guida nei colloqui, ha sostenuto, secondo una fonte citata dal Washington Post, che la decisione finale sull'uso dovrebbe spettare al governo, non alle singole aziende. Nella notte, Michael ha attaccato Amodei su X accusandolo di "complesso di Dio" e di voler "controllare personalmente" l'esercito, mettendo la sicurezza nazionale a rischio.
Il dibattito sul "human in the loop" e il futuro dell'IA militare
Sul piano delle garanzie, il Pentagono ha ribadito che "resta politica del Dipartimento" mantenere "un essere umano nel circuito" di tutte le decisioni relative all'impiego di armi nucleari e che "non è in considerazione" affidare quella scelta all'IA. Ma, ricordano esperti di strategia, anche un sistema che non decide potrebbe influenzare rapidamente valutazioni, priorità e tempi di risposta. Ed è proprio in questo spazio grigio - tra supporto decisionale e automatizzazione - che si gioca lo scontro tra Anthropic e il Pentagono.