Inteligencia Artificial (IA)
Il Pentagono avverte il CEO di Anthropic su una possibile intervento per motivi di sicurezza nazionale.
Paloma Firgaira
2026-02-27
5 min read
La tensione al Pentagono cresce mentre si definisce il ruolo dell'intelligenza artificiale nella sicurezza nazionale degli Stati Uniti. Il Segretario alla Difesa, Pete Hegseth, ha convocato per martedì prossimo Dario Amodei, CEO di Anthropic, per un incontro chiave al Dipartimento della Difesa.
Fonti vicine affermano che non si tratta di un semplice incontro, ma di una negoziazione decisiva sull'uso militare di Claude, il modello avanzato di IA di Anthropic. Attualmente, Claude è l'unico sistema di intelligenza artificiale integrato nelle operazioni classificate dell'esercito statunitense, anche se questa esclusività potrebbe cambiare presto.
La capacità di Claude di analizzare informazioni sensibili lo rende uno strumento strategico, ma anche un focolaio di conflitto. I vertici militari apprezzano la sua potenza, ma si mostrano frustrati di fronte al rifiuto di Anthropic di eliminare alcune salvaguardie etiche e operative che ne limitano l'uso in combattimento.
Entrambe le parti arrivano alla negoziazione con posizioni opposte riguardo all'autonomia tecnologica. Anthropic insiste che il dialogo sta procedendo in modo costruttivo, mentre funzionari della difesa considerano che il processo sia stagnante e vicino al fallimento.
L'azienda ha mostrato disponibilità a flessibilizzare alcune restrizioni, ma mantiene due limiti inamovibili: Claude non potrà essere utilizzato per la sorveglianza di massa dei cittadini statunitensi né per sviluppare armi autonome che operino senza supervisione umana. Così ha ribadito Amodei in un recente comunicato.
Il Pentagono, da parte sua, considera che queste limitazioni ostacolino l'operatività e richiede accesso totale ai modelli di IA per qualsiasi uso legale, senza necessità di approvazione da parte di Anthropic per ogni applicazione.
La pressione è aumentata al punto che il Pentagono minaccia di dichiarare Anthropic un rischio per la catena di approvvigionamento, il che comporterebbe la cancellazione di contratti e l'obbligo per altre aziende di certificare di non utilizzare tecnologia di Anthropic.
Questo scontro riflette anche un conflitto culturale tra la visione della sicurezza delle aziende tecnologiche e la logica militare. Amodei ha avvertito pubblicamente sui rischi di un'IA senza controllo, difendendo un approccio responsabile, mentre il Pentagono vede queste precauzioni come un ostacolo ideologico di fronte alle esigenze di difesa nazionale. Un episodio recente, in cui Claude è stato utilizzato in un'operazione per catturare Nicolás Maduro, ha intensificato il dibattito sui limiti etici e strategici dell'IA.
La posizione di Anthropic ha il sostegno di centinaia di dipendenti di OpenAI e Google, che hanno firmato una lettera aperta a sostegno della decisione di Amodei. Ora, la risposta del Pentagono sarà determinante in un conflitto che mette alla prova l'equilibrio tra etica tecnologica e sicurezza nazionale.