OpenAI chiude accordo con Pentagono dopo ordine Trump su Anthropic
La compagnia OpenAI, leader mondiale nello sviluppo di tecnologie di intelligenza artificiale, ha annunciato un accordo milionario con il Pentagono per fornire la sua avanzata tecnologia di gestione di dati classificati in una rete sicura.
La compagnia OpenAI, leader mondiale nello sviluppo di tecnologie di intelligenza artificiale, ha annunciato un accordo milionario con il Pentagono per fornire la sua avanzata tecnologia di gestione di dati classificati in una rete sicura. L'accordo, annunciato venerdì, si colloca in un contesto di tensioni crescenti tra il settore privato e le autorità statunitensi, dopo che il presidente Donald Trump ha ordinato la revoca di tutti i contratti federali con Anthropic, un'altra azienda di IA, per la sua resistenza a concedere l'accesso totale alla sua tecnologia per scopi militari. La decisione di Trump, accompagnata da una forte retorica anti-"woke", ha acceso un dibattito sull'equilibrio tra innovazione tecnologica e limiti etici, con conseguenze potenzialmente significative per il futuro della governance globale delle IA. L'accordo con il Pentagono, che include la condivisione di modelli di IA per scopi legali, rappresenta un passo cruciale nella strategia del governo Usa per garantire il controllo su tecnologie critiche, pur cercando di rispettare i principi di sicurezza e responsabilità umana.
L'accordo tra OpenAI e il Pentagono è stato firmato dopo mesi di negoziati tra il direttore esecutivo Sam Altman e il segretario della Guerra Pete Hegseth, il quale ha sottolineato la necessità di garantire che le aziende di IA non decidano autonomamente quando e contro chi utilizzare le armi. Altman ha spiegato che l'azienda ha trovato una soluzione per mantenere i propri principi di sicurezza, installando misure tecniche specifiche per limitare l'uso di tecnologie sensibili. Secondo Altman, il Pentagono ha accettato di rispettare le linee rosse di OpenAI, che vietano l'uso della tecnologia per la sorveglianza di massa o per sistemi di armi autonome senza supervisione umana. Tuttavia, il contratto prevede la condivisione di tutte le funzionalità della piattaforma, un aspetto che ha suscitato preoccupazioni tra i critici, che temono un aumento del rischio di abuso da parte delle forze armate. L'accordo, però, è stato giustificato come un passo necessario per garantire la sicurezza nazionale, in un momento in cui le tecnologie di IA sono diventate strumenti chiave per la difesa strategica.
Il contesto del dibattito tra OpenAI, Anthropic e il governo Usa risale a mesi di tensioni tra le aziende di IA e le autorità militari. Anthropic, fondata da ingegneri ex OpenAI, aveva rifiutato di firmare un accordo con il Pentagono, sostenendo che il suo modello di IA, Claude, non dovesse essere utilizzato per scopi militari. La compagnia ha posto due linee rosse: vietare la sorveglianza di massa e l'uso di armi autonome senza supervisione. Il Pentagono, però, ha insistito per ottenere l'accesso totale ai dati e alle tecnologie, minacciando di applicare la Legge di produzione di difesa della Guerra Fredda se Anthropic non avesse ceduto. La posizione di Anthropic ha suscitato critiche da parte del presidente Trump, che ha accusato l'azienda di agire in modo radicale e di ostacolare la capacità del governo Usa di controllare le sue forze armate. Questa situazione ha acceso un dibattito su come regolamentare l'uso delle IA in ambito militare, con il rischio di creare un'asimmetria di potere tra aziende private e istituzioni pubbliche.
L'impatto di questa decisione sulle politiche di governance delle IA è profondo e multifaceto. Da un lato, l'accordo con il Pentagono potrebbe accelerare l'adozione di tecnologie avanzate per scopi di sicurezza nazionale, ma dall'altro potrebbe alimentare preoccupazioni sull'uso improprio di dati sensibili e sulla mancanza di controllo democratico su decisioni strategiche. L'esperienza di Anthropic, che ha rifiutato di cedere la sua tecnologia, mostra come le aziende di IA possano cercare di bilanciare innovazione e etica, anche a costo di contrapporsi a istituzioni potenti. Tuttavia, la pressione esercitata dal governo Usa, che ha minacciato di interrompere i rapporti con Anthropic, evidenzia il crescente potere delle autorità statunitensi nel determinare le regole del mercato tecnologico. Questo scenario ha conseguenze anche a livello internazionale, poiché potrebbe influenzare il modo in cui altre nazioni gestiscono il controllo delle tecnologie di IA, con rischi di concentrazione del potere e di abuso da parte di governi autoritari.
La situazione si complica ulteriormente con le reazioni del presidente Trump, che ha utilizzato la sua influenza per spostare il dibattito verso questioni di sicurezza nazionale. Dopo aver revocato i contratti con Anthropic, Trump ha annunciato un attacco contro l'Iran, sostenendo che l'obiettivo era garantire che Teheran non possedesse armi nucleari. Questo episodio ha messo in luce come la politica estera Usa possa interagire con le decisioni tecnologiche, con il rischio di trasformare la governance delle IA in un strumento di potere geopolitico. L'ipotesi di un'azione militare, combinata con la pressione su Anthropic, suggerisce che il governo Usa possa utilizzare le tecnologie di IA come mezzo per rafforzare la sua leadership globale, a scapito di un dibattito democratico su limiti e responsabilità. L'impatto di questa dinamica potrebbe essere significativo, poiché potrebbe influenzare la capacità delle aziende di IA di operare in un contesto etico e democratico, in un momento in cui le tecnologie di IA stanno diventando strumenti chiave per la sicurezza e la strategia internazionale.
Fonte: El País Articolo originale
Articoli Correlati
Da Centocelle al Pigneto: piano Ama su misura per pulire le strade del municipio
4 giorni fa
La guerra contro l'Iran minaccia forniture globali di chip e espansione AI
4 giorni fa
Oracle annuncia migliaia di licenziamenti per crisi di liquidità da investimenti aggressivi in IA
4 giorni fa