Anthropic: Trump ordina all'amministrazione di fermare subito l'uso dell'intelligenza artificiale della startup
Trump ordina alle agenzie federali di interrompere l'uso di Anthropic, accusandola di minacciare la sicurezza nazionale. La decisione, dopo un ultimatum del segretario alla Difesa, scatena tensioni tra governo e aziende tech su controllo e sicurezza.
Donald Trump ha emesso un ordine urgente rivolto alle agenzie federali degli Stati Uniti, richiedendo loro di interrompere immediatamente l'uso della tecnologia sviluppata da Anthropic, un'azienda californiana specializzata in intelligenza artificiale (IA). Il presidente, attraverso il suo account su Truth Social, ha dichiarato che il governo non avrebbe più collaborato con la società, definendola una "falla disastrosa" per la sicurezza nazionale. La decisione è arrivata dopo un ultimatum imposto dal segretario alla Difesa, Pete Hegseth, che aveva dato un termine di 24 ore per l'accesso totale alla tecnologia di Anthropic, in particolare al modello Claude, utilizzato dall'esercito americano. Trump ha accusato la società di "arroganza e tradimento", sostenendo che il suo rifiuto di aprire la tecnologia avrebbe messo in pericolo le truppe e la sicurezza del Paese. La scelta del presidente non è stata casuale: si tratta di un attacco diretto a un settore tecnologico che ha visto negli ultimi anni un crescente controllo da parte di aziende private, spesso critiche per le loro politiche ideologiche.
La tensione tra il governo e Anthropic si è intensificata dopo l'esplosione di un conflitto che ha coinvolto anche il settore industriale. Il segretario Hegseth ha ritenuto che la decisione di Anthropic di non permettere un accesso totale alla sua tecnologia fosse un atto di "egoismo" che metteva a rischio la sicurezza nazionale. Secondo le accuse del governo, la società avrebbe cercato di esercitare un controllo ideologico sulle decisioni operative dell'esercito, un atteggiamento definito "inaccettabile" da Hegseth. Il segretario ha poi emesso un ordine formale, inserendo Anthropic in una lista di aziende considerate potenzialmente pericolose per la sicurezza nazionale, un provvedimento che blocca ogni collaborazione con il ministero della Difesa. Questa lista, che include già aziende come Huawei e Kaspersky, è un meccanismo legato a leggi risalenti alla Guerra Fredda, utilizzato per limitare l'accesso a tecnologie straniere. La decisione ha suscitato preoccupazioni internazionali, soprattutto in relazione al potere delle aziende tecnologiche nell'influenzare le politiche governative.
Il dibattito sull'uso dell'IA da parte delle forze armate ha radici profonde nel dibattito globale sull'etica tecnologica. Anthropic, fondata nel 2021 da ex dipendenti di OpenAI, ha sempre sostenuto un approccio etico al suo sviluppo, promuovendo un codice di condotta che limita l'uso della tecnologia in contesti come la sorveglianza di massa o l'uso di armi autonomi. Il CEO della società, Dario Amodei, ha ribadito che i sistemi di IA avanzata non sono ancora sufficientemente affidabili per controllare armi mortali senza supervisione umana, un concetto che ha spesso contraddistinto la posizione di Anthropic. Tuttavia, il governo statunitense ha sottolineato che l'accesso a tecnologie come Claude potrebbe migliorare la capacità di difesa del Paese, pur richiedendo un rispetto rigoroso delle leggi. La situazione ha visto un confronto tra due visioni: da un lato, la difesa della libertà di scelta delle aziende tecnologiche, dall'altro, la necessità di garantire la sicurezza nazionale.
Le conseguenze di questa decisione potrebbero essere significative per il settore tecnologico e per le relazioni tra aziende e governi. Anthropic, che ha firmato un contratto di 200 milioni di dollari con il governo, ha espresso il suo rifiuto a intervenire in modo diretto sulle decisioni militari, ma ha riconosciuto che in alcuni casi l'IA potrebbe minacciare i valori democratici. La posizione del governo, invece, si basa sull'idea che le aziende non dovrebbero avere un ruolo nella gestione delle operazioni di difesa, un concetto che ha trovato sostegno da parte di alcuni dipendenti di Google, OpenAI e Microsoft. Questi hanno scritto una lettera aperta in cui esprimono il loro sostegno a Anthropic e chiedono ai loro datori di lavoro di opporsi alle richieste del Pentagono. La situazione ha anche visto la partecipazione di sindacati, che hanno chiesto ai loro membri di rifiutare le collaborazioni con le forze armate. Queste reazioni segnalano un dibattito interno tra le aziende tecnologiche, tra le esigenze di innovazione e la responsabilità sociale.
La vicenda tra Anthropic e il governo statunitense rappresenta un esempio di come il potere delle aziende tecnologiche possa influenzare le politiche pubbliche. La decisione di Trump e Hegseth potrebbe portare a un rafforzamento dei controlli sulle tecnologie critiche, ma anche a un aumento delle tensioni tra settore privato e istituzioni pubbliche. Il dibattito sull'etica dell'IA, in particolare riguardo all'uso delle armi autonomi e alla sorveglianza, rimane aperto, con un ruolo chiave giocato da aziende come Anthropic. La risoluzione del conflitto potrebbe determinare il futuro della collaborazione tra tecnologia e difesa, con implicazioni a livello globale. In un contesto in cui l'IA diventa sempre più centrale nei processi decisionali, la capacità di trovare un equilibrio tra libertà e sicurezza sarà cruciale per il futuro del settore.
Fonte: Le Monde Articolo originale
Articoli Correlati
Da Centocelle al Pigneto: piano Ama su misura per pulire le strade del municipio
4 giorni fa
La guerra contro l'Iran minaccia forniture globali di chip e espansione AI
4 giorni fa
Oracle annuncia migliaia di licenziamenti per crisi di liquidità da investimenti aggressivi in IA
4 giorni fa