11 mar 2026

Pentagon impone termine a Anthropic per rimuovere restrizioni sull'IA

Il ministro della Difesa degli Stati Uniti, Pete Hegseth, ha lanciato un ultimatum alla startup californiana Anthropic, richiedendole di eliminare tutte le restrizioni sull'uso del suo modello di intelligenza artificiale (IA) da parte del Pentagono.

25 febbraio 2026 | 04:24 | 5 min di lettura
Pentagon impone termine a Anthropic per rimuovere restrizioni sull'IA
Foto: Le Monde

Il ministro della Difesa degli Stati Uniti, Pete Hegseth, ha lanciato un ultimatum alla startup californiana Anthropic, richiedendole di eliminare tutte le restrizioni sull'uso del suo modello di intelligenza artificiale (IA) da parte del Pentagono. L'ordine, annunciato martedì 24 febbraio, ha fissato un termine di quattro giorni per la risposta, con scadenza venerdì alle 23:01 (ora di Parigi). In caso di mancato rispetto, Hegseth ha minacciato di ricorrere a una legge approvata nel 1950, che permette al governo americano di obbligare un'azienda privata a produrre beni per la difesa nazionale. Inoltre, ha annunciato l'intenzione di inserire Anthropic in una lista di società considerate a rischio per gli approvvigionamenti, una misura che comporta restrizioni severe per i contratti con lo Stato. Questa lista, che comprende attualmente solo aziende straniere come Huawei e Kaspersky, è destinata a prevenire l'uso di tecnologie che potrebbero minacciare la sicurezza nazionale. L'ultimatum è arrivato dopo una riunione tra Hegseth e il fondatore di Anthropic, Dario Amodei, durante la quale il ministero ha chiesto ai fornitori di IA di rivedere le limitazioni sull'uso dei loro modelli, pur rimanendo nel rispetto della legalità. Sebbene Anthropic abbia accettato di allargare i casi di utilizzo, ha rifiutato di permettere l'uso del suo modello Claude per la sorveglianza di massa o l'automazione di attacchi mortali. Il portavoce dell'azienda ha dichiarato che le discussioni proseguiranno in buona fede, ma che l'obiettivo è garantire che Anthropic possa supportare le missioni di sicurezza nazionale senza compromettere l'etica e la responsabilità.

La decisione di Hegseth rappresenta un passo significativo nel dibattito globale sull'etica dell'IA e sul suo ruolo nella difesa nazionale. Il Pentagono ha sempre cercato di bilanciare il potenziale delle tecnologie emergenti con il rischio di abusi, specialmente in contesti di guerra o emergenze. L'idea di utilizzare l'IA per attività di sorveglianza o automazione di attacchi solleva questioni complesse, non solo tecniche ma anche giuridiche e etiche. Anthropic, fondata nel 2021 da ex dipendenti di OpenAI, ha sempre sottolineato un approccio etico, come dimostrato nel documento "costituzione" pubblicato all'inizio del 2026. Questo testo dettaglia le istruzioni per il modello Claude, tra cui il divieto di azioni "a rischio inappropriato". Tuttavia, il governo americano ritiene che alcuni usi potrebbero superare i limiti stabiliti, anche se non violano la legalità. Il conflitto tra innovazione e controllo è al centro di una discussione che coinvolge non solo le aziende tecnologiche ma anche gli Stati, che devono decidere se permettere l'uso di strumenti potenti senza mettere a rischio la sicurezza pubblica.

Il contesto della vicenda si inserisce in un quadro più ampio di tensioni tra tecnologia e sicurezza nazionale. Negli ultimi anni, il Pentagono ha intensificato la collaborazione con aziende che sviluppano IA per migliorare la capacità di analisi, previsione e decisione. Tuttavia, il rischio di abusi, soprattutto in ambiti sensibili come la sorveglianza o la guerra asimmetrica, ha spinto le autorità a richiedere maggiore controllo. Anthropic, pur essendo una startup relativamente giovane, ha guadagnato notorietà per il suo impegno etico, ma il suo rifiuto di permettere certi usi ha suscitato preoccupazioni. Il governo americano, inoltre, ha esaminato la possibilità di introdurre nuove normative per regolamentare l'uso dell'IA in scenari di difesa, anche se non è ancora stato chiaro se tali misure saranno applicate a tutte le aziende o solo a quelle specifiche. L'obiettivo sembra essere di creare un sistema in cui l'innovazione tecnologica possa essere sfruttata al massimo, ma senza compromettere i valori democratici o la protezione dei cittadini.

Le implicazioni di questa situazione vanno ben oltre la singola azienda e coinvolgono il futuro della regolamentazione tecnologica. Il ricorso alla legge del 1950, se effettuato, potrebbe rappresentare un precedente per altre aziende che rifiutano di conformarsi a requisiti governativi, aprendo la strada a un modello di controllo più diretto. Tuttavia, la decisione di inserire Anthropic nella lista dei rischi potrebbe limitare i suoi futuri contratti con lo Stato, un aspetto che potrebbe influenzare la sua crescita. Al tempo stesso, il dibattito sull'etica dell'IA si intensifica a livello internazionale, con paesi come la Cina e la Russia che avanzano proposte alternative per il governo delle tecnologie. In questo contesto, il ruolo di Anthropic non è solo quello di un fornitore di strumenti tecnologici, ma anche di un esempio di come le aziende possano conciliare innovazione e responsabilità. La sfida è trovare un equilibrio tra libertà tecnologica e sicurezza nazionale, un tema che continuerà a occupare il centro del dibattito politico e sociale.

La situazione potrebbe evolversi in diversi scenari, a seconda delle risposte di Anthropic e delle decisioni del governo. Se l'azienda riuscirà a trovare un accordo con il Pentagono, potrebbe mantenere i suoi principi etici senza dover rinunciare a contratti strategici. Al contrario, un rifiuto definitivo potrebbe portare a conseguenze legali e commerciali, con impatti sull'intero settore dell'IA. Inoltre, il caso potrebbe servire da catalizzatore per un dibattito più ampio sull'etica delle tecnologie emergenti, coinvolgendo non solo aziende ma anche istituzioni, accademici e cittadini. L'obiettivo finale è quello di creare un quadro normativo che permetta l'uso responsabile dell'IA, senza limitare la sua potenzialità. La decisione di Hegseth, quindi, non è solo un episodio politico, ma un segnale di come il potere statale e il settore privato si confrontano per definire il futuro delle tecnologie. Questo tipo di confronto sarà probabilmente ricorrente, soprattutto in un'epoca in cui l'IA diventa sempre più centrale per la sicurezza e la governance globale.

Fonte: Le Monde Articolo originale

Condividi l'articolo

Articoli Correlati

Resta Informato

Iscriviti alla newsletter di Fattuale per ricevere le notizie più importanti direttamente nella tua casella email.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi

🍪

Questo sito utilizza i cookie

Utilizziamo cookie tecnici necessari e, con il tuo consenso, cookie analitici per migliorare la tua esperienza. Puoi accettare tutti i cookie, rifiutare quelli non essenziali o personalizzare le tue preferenze. Scopri di più

Preferenze Cookie

Cookie Tecnici

Sempre attivi

Essenziali per il funzionamento del sito. Includono cookie di sessione, preferenze di tema e sicurezza CSRF.

Cookie Analitici

Ci aiutano a capire come i visitatori interagiscono con il sito, raccogliendo informazioni in forma anonima (es. Google Analytics).

Cookie di Marketing

Utilizzati per mostrare annunci pubblicitari pertinenti ai tuoi interessi su questo sito e su altri siti web.

Grazie per l'iscrizione!

Controlla la tua email per confermare.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi