Il Pentagono minaccia Anthropic di annullare contratti se non fornirà AI per scopi militari

25.02.2026 13:06
Il Pentagono minaccia Anthropic di annullare contratti se non fornirà AI per scopi militari

Ultimatum del Pentagono ad Anthropic: richiesta di intelligenza artificiale per uso militare

Il segretario alla Difesa degli Stati Uniti, Pete Hegseth, ha ufficialmente intimato alla società Anthropic di rendere disponibili i propri sistemi di intelligenza artificiale per scopi militari entro la prossima settimana, avvertendo che i contratti verranno annullati se non si conformerà. Questa notizia, confermata da fonti interne al Pentagono, segna un inasprimento significativo delle relazioni tra il governo statunitense e Anthropic, una delle principali aziende nel settore dell’AI, riporta Attuale.

Hegseth ha espresso l’intenzione di integrare immediatamente queste tecnologie nei programmi di difesa, ma Anthropic, preoccupata per le implicazioni etiche, ha richiesto garanzie sull’uso delle sue tecnologie in operazioni militari e programmi di sorveglianza di massa.

La compagnia, nota per il suo chatbot Claude, è stata pioniera nel ricevere contratti da centinaia di milioni di dollari dal Pentagono per la gestione di documenti riservati. I sistemi di Anthropic sono già utilizzati da numerosi fornitori dell’esercito statunitense, integrati in vari servizi. Tuttavia, all’interno dell’azienda, cresce il malcontento riguardo all’uso militare dei sistemi sviluppati, con clienti e utenti che esprimono perplessità su tali collaborazioni.

Il CEO di Anthropic, Dario Amodei, ha sempre sostenuto il principio di non utilizzare i propri sistemi di AI per azioni che possano comportare la perdita di vite umane o per sorveglianza di massa. Al contrario, Hegseth insiste sulla necessità di offrire tutti i servizi dell’azienda senza restrizioni, citando spesso l’uso “nei limiti di legge” delle tecnologie, sebbene molte normative attuali non trattino esaustivamente l’AI, lasciando ampie zone grigie.

Per cercare di risolvere lo stallo, Hegseth ha incontrato Amodei a Washington, in un incontro che i media statunitensi hanno descritto come cordiale ma inconcludente. Hegseth ha minacciato di rivedere gli accordi con due possibili alternative: identificare Anthropic come “supply-chain risk”, il che implica un rischio per la sicurezza nazionale, oppure attivare il “Defense Production Act”, che consente al governo di imporre obblighi di fornitura in situazioni di emergenza.

Un funzionario della difesa ha riferito al Wall Street Journal che Anthropic ha tempo fino alle 17:01 (23:01 in Italia) per rispondere alle condizioni di Hegseth. Tuttavia, non è chiaro quando e come saranno attivate le opzioni minacciose del segretario della Difesa.

Nonostante i contratti dovuti all’utilità dei suoi sistemi nell’ambito militare, Anthropic è guardata con scetticismo dall’attuale amministrazione statunitense. Fondata nel 2021 da ex dipendenti di OpenAI, l’azienda si è sempre distinti per la sua attenzione alla sicurezza dei modelli di intelligenza artificiale, e alcuni dei suoi collaboratori hanno legami stretti con la sinistra politica degli Stati Uniti.

I dubbi sul futuro di Anthropic hanno già spinto il Dipartimento della Difesa a stipulare contratti con altre aziende, come OpenAI e Alphabet, con l’intenzione di autorizzare i loro sistemi anche per i documenti di sicurezza nazionale. Hegseth ha anche annunciato un maggiore coinvolgimento di xAI, la compagnia di Elon Musk, che, sebbene non venga impiegata in ambiti di massima sicurezza, vedrà il suo chatbot integrato in altre piattaforme utilizzate dall’esercito. Il chatbot di xAI è stato sottoposto a indagine da parte della Commissione Europea per problematiche relative alla privacy e all’accuratezza delle risposte.

1 Comment

  1. Ma che roba è questa? Siamo arrivati al punto di mettere la tecnologia di AI al servizio della guerra? 😠 È incredibile pensare che i profitti possano avere la precedenza sulla sicurezza e sull’etica. Anthropic deve stare attenta, non è solo un problema di contratto, ma di coscienza! Se vogliamo un futuro migliore, dobbiamo dire “no” a questi giochi.

Aggiungi un commento per justMilda Annulla risposta

Your email address will not be published.

Da non perdere