Anthropic replica dopo Usa lo definisce rischio catena fornitura
Il segretario della Difesa USA ha designato Anthropic come rischio della catena di approvvigionamento, limitando collaborazioni con il Pentagono e scatenando preoccupazioni nel settore tecnologico. La decisione ha acceso dibattiti su sicurezza nazionale e governance dell'AI, con critiche per l'impatto su aziende civili e incertezza per il settore.
Il segretario della Difesa degli Stati Uniti, Pete Hegseth, ha annunciato venerdì la designazione di Anthropic come "rischio della catena di approvvigionamento", un provvedimento che ha scosso il mondo della tecnologia e ha lasciato aziende e startup a confrontarsi con le conseguenze di questa decisione. La mossa, rivolta a impedire a qualsiasi azienda che collabori con il Pentagono di effettuare attività commerciali con Anthropic, ha suscitato preoccupazione nel settore tecnologico, dove la società è considerata una delle principali fornitrici di modelli di intelligenza artificiale. La decisione ha creato un clima di incertezza, con aziende come Amazon, Microsoft, Google e Nvidia che si interrogano su come adattarsi alla nuova normativa. Il provvedimento, che potrebbe limitare l'accesso a tecnologie avanzate, ha riacceso il dibattito su come il governo americano gestisca i rischi legati all'uso dell'AI in contesti militari e civili.
La designazione di Anthropic come rischio della catena di approvvigionamento è emersa dopo mesi di tensioni tra il Pentagono e la startup, che aveva cercato di limitare l'uso delle sue tecnologie in modo da evitare applicazioni per la sorveglianza di massa o per armi autonomi. Anthropic, in un post sul blog, aveva sottolineato che i contratti con il Pentagono non dovrebbero permettere l'uso del suo software per scopi che violano i principi etici, come la gestione di armi senza supervisione umana. Il Pentagono, però, aveva chiesto che le sue tecnologie fossero utilizzabili per "ogni uso legale", senza eccezioni. Questa discrepanza ha alimentato una serie di discussioni tra i responsabili tecnologici e i funzionari governativi, con Anthropic che ha rifiutato di accettare le condizioni proposte. La decisione di Hegseth sembra mirare a proteggere i sistemi militari sensibili da potenziali vulnerabilità, ma ha suscitato critiche per il suo impatto su un'azienda che opera nel settore civile e che non ha alcun legame con il governo.
L'obiettivo della designazione è quello di limitare l'accesso a tecnologie che potrebbero rappresentare un rischio per la sicurezza nazionale. Secondo il testo legale 10 USC 3252, questa misura è rivolta a fornitori che operano direttamente con il Pentagono, ma Anthropic ha sottolineato che i suoi modelli, come Claude, vengono utilizzati da aziende terze per scopi non militari. La società ha affermato che il provvedimento non si applica a quelle attività, ma il Pentagono ha ritenuto che la sua tecnologia potesse essere impiegata in modi incompatibili con i principi di sicurezza e privacy. Anthropic, in un comunicato, ha espresso preoccupazione per la decisione, sottolineando che la designazione potrebbe precludere a aziende americane di lavorare con il governo. Il presidente del consiglio d'amministrazione di Anthropic, Dario Mastracci, ha ritenuto che la mossa fosse un "esempio di comportamento impulsivo e vendicativo" da parte del governo, mettendo in discussione la stabilità del sistema democratico.
La decisione ha suscitato reazioni forti da parte del settore tecnologico, con molti esperti e imprenditori che hanno espresso preoccupazione per le implicazioni a lungo termine. Il fondatore di Y Combinator, Paul Graham, ha dichiarato che la mossa era "l'azione più grave mai compiuta dal governo americano", mentre il ricercatore OpenAI Boaz Barak ha ritenuto che si trattasse di un "errore grave" che potrebbe danneggiare la leadership globale del settore AI. Al contrario, Sam Altman, CEO di OpenAI, ha annunciato un accordo con il Pentagono per utilizzare i suoi modelli in ambienti classificati, con limitazioni specifiche per evitare usi non etici. Tuttavia, Anthropic ha sottolineato che il provvedimento di Hegseth non è basato su una legge chiara, rendendo difficile valutare le conseguenze pratiche per le aziende che utilizzano i suoi servizi. Gli esperti legali hanno espresso la convinzione che Anthropic potrebbe intentare un'azione legale contro il governo, ma il processo potrebbe richiedere mesi o anni, con rischi per la sua attività in attesa della risoluzione.
La situazione ha acceso un dibattito su come il governo americano gestisca il bilancio tra sicurezza nazionale e innovazione tecnologica. Molti osservatori hanno sottolineato che la designazione di Anthropic potrebbe scoraggiare altre aziende tecnologiche da collaborare con il Pentagono, creando un clima di incertezza e sfiducia. Il settore tecnologico, che già affronta pressioni da parte di regolamenti internazionali e da concorrenti globali, potrebbe ora dover affrontare una nuova ondata di restrizioni. Gli esperti hanno ritenuto che il provvedimento non solo metta in discussione la credibilità del governo americano, ma possa anche influenzare le politiche future sulla governance dell'AI. Mentre le aziende si preparano a valutare le implicazioni legali e operative, il dibattito si sposta verso le conseguenze a lungo termine per la tecnologia e la società. La decisione di Hegseth, se confermata, potrebbe diventare un punto di riferimento per le future politiche di sicurezza e controllo delle tecnologie emergenti.
Fonte: Wired Articolo originale
Articoli Correlati
Da Centocelle al Pigneto: piano Ama su misura per pulire le strade del municipio
4 giorni fa
La guerra contro l'Iran minaccia forniture globali di chip e espansione AI
4 giorni fa
Oracle annuncia migliaia di licenziamenti per crisi di liquidità da investimenti aggressivi in IA
4 giorni fa