Anthropic fa causa all’amministrazione Trump per classificazione come rischio per la catena di approvvigionamento
Lunedì, la società di intelligenza artificiale Anthropic, conosciuta per il chatbot Claude, ha fatto causa all’amministrazione del presidente statunitense Donald Trump, che l’aveva designata come “supply-chain risk”, cioè un fornitore del governo ritenuto potenzialmente pericoloso per la sicurezza nazionale, riporta Attuale.
Questo scontro tra Anthropic e Trump, in particolare con il Dipartimento della Difesa, è emerso a causa delle riserve di Anthropic sull’utilizzo delle proprie tecnologie in contesti di sorveglianza di massa o in ambito militare, contrapposte alla volontà di Trump di sfruttarle senza limitazioni. Anthropic, inoltre, è la prima società di intelligenza artificiale che ha siglato contratti da centinaia di milioni di dollari con il Pentagono ed è attualmente la più coinvolta in tali attività.
I conflitti erano iniziati dopo che Anthropic aveva espresso preoccupazioni riguardo all’uso delle proprie tecnologie da parte del Pentagono e di Palantir nella pianificazione e nell’esecuzione dell’arresto del presidente venezuelano Nicolás Maduro, avvenuto il 3 gennaio scorso. Palantir, nota azienda di analisi dei dati fondata da Peter Thiel, gestisce anche documenti segreti per motivi di sicurezza nazionale.
Classificare una società come “supply-chain risk” è una misura tipicamente adottata per limitare l’attività di aziende legate al governo cinese negli Stati Uniti, in settori strategici come telecomunicazioni e difesa. Dario Amodei, amministratore delegato di Anthropic, aveva annunciato l’intenzione di contestare questa decisione in tribunale, avvenuta tramite il deposito di due cause: una in California e una nel distretto di Columbia. Anthropic accusa Trump di utilizzare tale classificazione per colpire l’azienda per motivi ideologici, in violazione del Primo emendamento della Costituzione statunitense, relativo alla libertà di espressione.