11 mar 2026

Difesa e Anthropic in contesa per sicurezza AI

La controversia tra il Dipartimento della Difesa e l'azienda di intelligenza artificiale Anthropic ha scatenato un conflitto acceso, con il Pentagono che minaccia di classificare la società come rischio per la catena di approvvigionamento.

19 febbraio 2026 | 04:36 | 5 min di lettura
Difesa e Anthropic in contesa per sicurezza AI
Foto: The New York Times

La controversia tra il Dipartimento della Difesa e l'azienda di intelligenza artificiale Anthropic ha scatenato un conflitto acceso, con il Pentagono che minaccia di classificare la società come rischio per la catena di approvvigionamento. La questione, che ha visto mesi di negoziati, è culminata in una serie di dichiarazioni contrapposte e tensioni interne. Il segretario alla Difesa, Pete Hegseth, ha rivelato che il Pentagono è "vicino" a definire Anthropic come un rischio per la sicurezza nazionale, un atto che potrebbe interrompere le relazioni con le forze armate statunitensi. L'azienda, però, ha reagito con preoccupazione, accusando il governo di non aver chiarito le motivazioni del veto. La disputa si concentra su come l'intelligenza artificiale sarà utilizzata nei futuri scenari di guerra, con Anthropic che ha rifiutato di permettere l'uso del suo software per la sorveglianza massiva degli americani o in armi autonome senza intervento umano. Il Pentagono, invece, ha espresso irritazione per la posizione di Anthropic, vedendola come un ostacolo alla libertà di utilizzo delle tecnologie da parte delle forze armate. La situazione riflette un contrasto crescente tra le politiche tecnologiche del governo e le preoccupazioni etiche delle aziende, con il presidente Trump che mira a espandere l'uso dell'AI e a ridurre le restrizioni, mentre Anthropic difende la necessità di limiti rigorosi per prevenire rischi globali.

La tensione si è intensificata quando il Pentagono ha accusato Anthropic di privilegiare un'élite liberale, richiedendo protezioni aggiuntive che, secondo il governo, limitano la flessibilità operativa. Le discussioni interne all'azienda hanno rivelato un caos interno, con team che cercavano di identificare le ragioni del veto. Il direttore generale di Anthropic, Dario Amodei, ha sempre sostenuto che l'AI necessiti di limiti per evitare danni irreparabili, come il rischio di abusi da parte di governi autoritari. L'azienda ha chiarito che non intende permettere l'uso del suo software per scopi di sorveglianza interna o per armi autonome, ma il Pentagono ha visto questo atteggiamento come un rifiuto di collaborare. Il dibattito ha anche riguardato l'impatto delle politiche di Trump, che ha criticato le normative statali che potrebbero ostacolare lo sviluppo tecnologico. Mentre Anthropic ha sottolineato l'importanza di un dialogo costruttivo, il Pentagono ha insistito sul bisogno di un controllo totale sulle tecnologie utilizzate per la difesa nazionale. La situazione ha messo in luce le divergenze tra i valori etici delle aziende e le priorità strategiche del governo, con conseguenze potenzialmente significative per la sicurezza nazionale.

Il contesto di questa disputa è radicato nella crescente dipendenza del Pentagono dall'intelligenza artificiale per analizzare dati e supportare operazioni militari. Anthropic è stato uno dei principali fornitori del programma pilota del Dipartimento della Difesa, un progetto di 200 milioni di dollari che include anche Google, OpenAI e xAI. Tuttavia, il suo modello Claude è stato il più utilizzato, grazie all'integrazione con tecnologie di Palantir, una società che opera con il governo federale. Il contratto con Anthropic è stato cruciale per il Pentagono, che ha visto in questo strumento un'alternativa alle tecnologie di altre aziende. L'azienda ha però rifiutato di permettere l'uso del suo software per scopi di guerra, un atteggiamento che ha suscitato irritazione nel Dipartimento della Difesa. La situazione si è complicata ulteriormente quando è emerso che Anthropic aveva sollevato preoccupazioni circa l'utilizzo del suo software in un'operazione militare per catturare il presidente venezuelano, Nicolás Maduro. Palantir, che ha collaborato con Anthropic, ha ritenuto che la posizione dell'azienda potesse mettere in pericolo le sue relazioni con il governo. Questi episodi hanno rafforzato la posizione del Pentagono, che ha visto in Anthropic un'entità ostile verso i propri obiettivi strategici.

Le implicazioni di questa disputa vanno oltre il semplice contratto tra aziende e governo. Il riconoscimento di Anthropic come rischio per la catena di approvvigionamento potrebbe avere conseguenze gravi, visto che tale designazione è rara e di solito riguarda aziende che operano con il Cina. La dipendenza del Pentagono da tecnologie Anthropic rende difficile il suo sostituzione, un problema che ha reso il governo più cauto nel prendere decisioni definitive. L'azienda ha ribadito la sua volontà di collaborare, ma il Pentagono ha continuato a insistere sulla necessità di un controllo totale sulle tecnologie utilizzate. L'episodio ha anche messo in luce le tensioni tra le aziende tech e il governo, con il presidente Trump che mira a ridurre le restrizioni su tecnologie come i chip per l'AI, mentre Anthropic e altre aziende si oppongono a tale politica. La situazione rappresenta un punto di svolta per il settore, con il rischio che le politiche governative possano influenzare significativamente lo sviluppo tecnologico e le relazioni internazionali.

La questione rimane in fase di negoziato, con il Pentagono che continua a valutare le opzioni per ripristinare la collaborazione con Anthropic. La decisione finale potrebbe dipendere da un accordo che equilibri le esigenze di sicurezza nazionale e le preoccupazioni etiche. In un ambiente geopolitico sempre più complesso, il conflitto tra tecnologia e etica potrebbe diventare un tema centrale per le politiche future. Il ruolo di Anthropic nell'ambito della difesa nazionale non è ancora definito, ma la sua posizione ha messo in luce le sfide di gestire tecnologie potenti in un contesto di sicurezza globale. La soluzione dovrà tener conto non solo delle esigenze immediate del governo, ma anche delle responsabilità sociali e etiche che accompagnano lo sviluppo dell'intelligenza artificiale. La capacità di trovare un equilibrio tra libertà tecnologica e sicurezza nazionale sarà cruciale per il futuro delle relazioni tra aziende e istituzioni governative.

Fonte: The New York Times Articolo originale

Condividi l'articolo

Articoli Correlati

Resta Informato

Iscriviti alla newsletter di Fattuale per ricevere le notizie più importanti direttamente nella tua casella email.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi

🍪

Questo sito utilizza i cookie

Utilizziamo cookie tecnici necessari e, con il tuo consenso, cookie analitici per migliorare la tua esperienza. Puoi accettare tutti i cookie, rifiutare quelli non essenziali o personalizzare le tue preferenze. Scopri di più

Preferenze Cookie

Cookie Tecnici

Sempre attivi

Essenziali per il funzionamento del sito. Includono cookie di sessione, preferenze di tema e sicurezza CSRF.

Cookie Analitici

Ci aiutano a capire come i visitatori interagiscono con il sito, raccogliendo informazioni in forma anonima (es. Google Analytics).

Cookie di Marketing

Utilizzati per mostrare annunci pubblicitari pertinenti ai tuoi interessi su questo sito e su altri siti web.

Grazie per l'iscrizione!

Controlla la tua email per confermare.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi