11 mar 2026

Trump ordina cancellare contratti pubblici con Anthropic per sicurezza AI

Donald Trump, presidente degli Stati Uniti d'America, ha annunciato una decisione radicale che ha scosso il mondo della tecnologia e delle forze armate.

28 febbraio 2026 | 01:39 | 5 min di lettura
Trump ordina cancellare contratti pubblici con Anthropic per sicurezza AI
Foto: El País

Donald Trump, presidente degli Stati Uniti d'America, ha annunciato una decisione radicale che ha scosso il mondo della tecnologia e delle forze armate. Il leader republicano ha ordinato a tutte le agenzie federali del governo americano di interrompere immediatamente l'utilizzo della tecnologia sviluppata da Anthropic, una startup californiana specializzata nella creazione di strumenti di intelligenza artificiale. La decisione, annunciata attraverso la sua pagina su Twitter, nasce da una forte opposizione al modello etico e politico dell'azienda, definita da Trump come "radicalmente di sinistra" e "woke". L'obiettivo principale del presidente è stato di sottolineare che il controllo della tecnologia militare non deve dipendere da aziende che, secondo lui, non rispettano i valori americani. "Il comando delle nostre forze armate e la decisione su come combattere le guerre appartiene al comandante in capo e ai suoi leader, non a aziende che operano con criteri diversi", ha dichiarato Trump, aggiungendo che le agenzie federali avrebbero un periodo di sei mesi per smettere di utilizzare i prodotti di Anthropic. Questa mossa segna un punto di svolta nella collaborazione tra il governo statunitense e le aziende tecnologiche, aprendo una discussione globale sui limiti etici dell'intelligenza artificiale nel contesto militare.

La tensione tra Anthropic e il Pentagono si è intensificata negli ultimi mesi a causa di una serie di divergenze su come utilizzare la tecnologia. Il Dipartimento della Difesa ha chiesto a Anthropic di permettere l'uso senza restrizioni del suo modello di intelligenza artificiale Claude per operazioni militari, incluso la gestione di dati sensibili e la realizzazione di sistemi di sorveglianza avanzata. Il segretario alla Difesa, Pete Hegseth, ha minacciato di applicare misure estreme se la compagnia non avesse acconsentito alle sue richieste, tra cui la possibilità di utilizzare la tecnologia per attacchi autonomi senza intervento umano. Questo scenario ha suscitato preoccupazioni significative all'interno delle istituzioni americane, che temono un utilizzo improprio dell'intelligenza artificiale in contesti di guerra. La posizione di Anthropic, invece, si basa su un principio etico che esclude l'uso della sua tecnologia per attività che potrebbero violare la privacy o minacciare la sicurezza civile. Dario Amodei, CEO di Anthropic, ha chiarito che l'azienda non intende permettere la sorveglianza massiva dei cittadini né l'uso di strumenti autonomi per la guerra, ritenendo che queste pratiche siano inaccettabili anche da un punto di vista legale.

Il contesto di questa contesa risale a un accordo firmato nel luglio scorso tra Anthropic e il Pentagono, che prevedeva un contratto di 200 milioni di dollari per l'utilizzo di Claude in archivi militari classificati. Questo accordo era considerato un passo importante per il settore dell'intelligenza artificiale, poiché segnava la prima collaborazione tra un'azienda privata e il governo americano nel campo delle operazioni militari. Tuttavia, i rapporti si sono raffreddati dopo la diffusione di una conversazione tra un dipendente di Anthropic e un membro di Palantir, una società specializzata in gestione dei dati, che sembrava indicare un uso potenziale della tecnologia in un'operazione militare per il ritrovamento di un ex presidente venezolano. Questo episodio ha alimentato le preoccupazioni del Pentagono, che teme un controllo insufficiente su come la tecnologia possa essere utilizzata. Il Dipartimento della Difesa ha quindi rafforzato le sue richieste, minacciando di applicare sanzioni e di interrompere i rapporti con Anthropic se non fosse stato raggiunto un accordo.

L'impatto di questa crisi va ben al di là delle questioni tecniche e commerciali. La discussione tra Anthropic e il Pentagono rappresenta un caso emblematico del dibattito globale sui limiti dell'intelligenza artificiale in contesti di guerra. L'uso improprio di questa tecnologia potrebbe portare a conseguenze devastanti, come la sorveglianza di massa o l'automazione di decisioni di vita o morte. Il Dipartimento della Difesa ha sottolineato che non intende utilizzare la tecnologia per scopi illegali, ma non ha voluto fissare i limiti in modo esplicito, ritenendo che fosse una questione filosofica. Questo atteggiamento ha alimentato le tensioni, con Anthropic che continua a rifiutare di cedere alle pressioni. La situazione potrebbe evolversi in una battaglia legale di alto livello, con conseguenze significative per il settore delle tecnologie di difesa e per la regolamentazione globale dell'intelligenza artificiale. Le parti coinvolte, però, non sembrano voler abbandonare le trattative, con fonti governative che indicano un interesse nel prolungare i colloqui per trovare una soluzione equilibrata.

La crisi tra Anthropic e il Pentagono non solo mette in luce le sfide etiche dell'intelligenza artificiale, ma anche le tensioni politiche tra il governo e le aziende tecnologiche. Il presidente Trump, con la sua decisione di interrompere i contratti, ha espresso una posizione chiara su come la tecnologia debba essere gestita in modo da rispettare i valori nazionali. Tuttavia, il dibattito non si ferma qui: il Dipartimento della Difesa ha riconosciuto la necessità di trovare un accordo, anche se non è chiaro come. Il futuro di questa collaborazione dipenderà da una serie di fattori, tra cui la capacità di entrambe le parti di trovare un equilibrio tra sicurezza nazionale e principi etici. Il mondo osserva con attenzione, poiché questa vicenda potrebbe influenzare le politiche di utilizzo dell'intelligenza artificiale non solo negli Stati Uniti, ma a livello globale. Il rischio di un uso improprio della tecnologia resta elevato, e il dibattito su come regolamentarla non sembra essere destinato a finire presto.

Fonte: El País Articolo originale

Condividi l'articolo

Articoli Correlati

Resta Informato

Iscriviti alla newsletter di Fattuale per ricevere le notizie più importanti direttamente nella tua casella email.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi

🍪

Questo sito utilizza i cookie

Utilizziamo cookie tecnici necessari e, con il tuo consenso, cookie analitici per migliorare la tua esperienza. Puoi accettare tutti i cookie, rifiutare quelli non essenziali o personalizzare le tue preferenze. Scopri di più

Preferenze Cookie

Cookie Tecnici

Sempre attivi

Essenziali per il funzionamento del sito. Includono cookie di sessione, preferenze di tema e sicurezza CSRF.

Cookie Analitici

Ci aiutano a capire come i visitatori interagiscono con il sito, raccogliendo informazioni in forma anonima (es. Google Analytics).

Cookie di Marketing

Utilizzati per mostrare annunci pubblicitari pertinenti ai tuoi interessi su questo sito e su altri siti web.

Grazie per l'iscrizione!

Controlla la tua email per confermare.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi