La recente controversia tra Anthropic, azienda di intelligenza artificiale, e l'Amministrazione Trump ha generato un intenso dibattito nel settore tecnologico e politico statunitense. Il conflitto è nato quando Anthropic si è rifiutata di consentire che la sua IA fosse utilizzata per la sorveglianza di massa o lo sviluppo di armi autonome letali, conosciute come 'robot assassini'. In risposta, la Casa Bianca ha annullato contratti milionari con il Pentagono e ha vietato l'uso della tecnologia di Anthropic nell'Esercito e tra i suoi appaltatori.
Anthropic è stata fondata nel 2021 come una scissione di OpenAI, spinta da differenze sul percorso etico e tecnico dell'IA. Tra i suoi fondatori spicca Dario Amodei, attuale CEO, che in precedenza è stato una figura chiave nello sviluppo di ChatGPT. Il conflitto è esploso prima dell'intervento militare degli Stati Uniti e di Israele in Iran, quando il segretario alla Difesa, Pete Hegseth, ha rifiutato le clausole etiche che Amodei ha cercato di includere nei contratti con l'Esercito. Hegseth, noto per la sua posizione ultraconservatrice, ha fatto pressione per vietare l'uso di Anthropic in tutta l'amministrazione, appellandosi a una legge della Guerra Fredda.
La Casa Bianca ha dichiarato Anthropic un rischio per la catena di approvvigionamento e la sicurezza nazionale, concedendo sei mesi affinché l'Esercito smetta di utilizzare Claude, il modello di IA dell'azienda. Questa decisione influisce non solo sui contratti diretti, ma anche su grandi aziende tecnologiche come Amazon, Microsoft, Google e Oracle, che integrano Claude nei loro servizi.
Sebbene OpenAI e Google siano più conosciute nel settore dei consumatori, Claude ha una forte presenza nel settore aziendale e governativo, con una quota di mercato vicina al 40%. La misura ha generato preoccupazione a Silicon Valley, i cui team legali hanno cercato di limitare l'ambito del divieto a usi militari, consentendo ad Anthropic di continuare a operare nel settore civile. Tuttavia, agenzie federali come il Tesoro e Salute hanno già annunciato che smetteranno di utilizzare Claude.
L'Esercito si trova ora in un periodo di incertezza, poiché Claude è ampiamente implementato e le attuali alternative presentano dubbi. Grok, di xAI (Elon Musk), è stato recentemente autorizzato, ma ha mostrato significativi fallimenti, mentre il modello di OpenAI non è ancora pronto per applicazioni militari, sebbene il suo CEO, Sam Altman, abbia firmato un accordo con il Pentagono lo stesso giorno in cui è scoppiata la polemica.
Trump ha utilizzato la legislazione in modo controverso, come già fatto con i dazi, e Amodei ha fatto ricorso ai tribunali per contestare la qualificazione di Anthropic come minaccia, sostenendo che la legge è stata progettata per aziende straniere sospettate di spionaggio.
La decisione è stata criticata sia da democratici che da repubblicani e esperti militari, che considerano prematuro l'uso dell'IA in armi autonome. Si è persino dimessa la responsabile della robotica di OpenAI dopo l'accordo con il Pentagono.
Il confronto tra Amodei e Trump trascende il tecnologico: per Trump, Anthropic rappresenta un'IA "woke", mentre OpenAI è vista come affine alla sua agenda, dopo aver ricevuto una donazione di 25 milioni di dollari dal suo presidente. Sebbene Amodei sia presentato come un difensore dell'IA etica, ha spinto per il suo sviluppo accelerato e, secondo la rivista Time, è uno dei grandi architetti dell'IA attuale. Tuttavia, lui stesso ha riconosciuto che l'IA non garantisce la promozione della democrazia o della pace, e ha ammesso la possibilità di accettare investimenti da paesi come gli Emirati Arabi o il Qatar, anche se ciò avvantaggia regimi autoritari.
In definitiva, il dibattito sull'etica e il potere nell'IA rimane aperto, con protagonisti che, lontani dall'essere esemplari, riflettono le contraddizioni e i dilemmi del settore.