OpenAI aveva vietato l'uso militare, il Pentagon ha testato i suoi modelli tramite Microsoft nonostante
La scorsa settimana, il CEO di OpenAI, Sam Altman, è rimasto al centro dell'attenzione per un accordo appena firmato tra il suo ente e il Pentagono, che ha suscitato forti critiche da parte dei dipendenti.
La scorsa settimana, il CEO di OpenAI, Sam Altman, è rimasto al centro dell'attenzione per un accordo appena firmato tra il suo ente e il Pentagono, che ha suscitato forti critiche da parte dei dipendenti. L'accordo, che prevede la collaborazione tra OpenAI e il governo statunitense, è arrivato in un momento di tensione interna all'azienda, dove i dipendenti hanno espresso preoccupazioni per la trasparenza e i limiti etici della collaborazione con le forze armate. Altman ha riconosciuto pubblicamente che il deal "sembrava disorganizzato" in un post sui social media, ma non ha fornito dettagli specifici. La situazione ha riacceso un dibattito su come OpenAI gestisce i rapporti con l'apparato militare, un tema che è diventato centrale negli ultimi mesi, soprattutto dopo l'insuccesso di un contratto simile firmato da Anthropic con il Pentagono. Questo episodio, sebbene pubblicizzato, rappresenta solo l'ultimo esempio di una politica di OpenAI verso l'accesso delle forze armate ai suoi modelli di intelligenza artificiale, che è rimasta vaga e suscettibile di interpretazioni.
La controversia si è intensificata a causa di una serie di misteri e ambiguità che circondano il ruolo delle forze armate all'interno dell'azienda. Nel 2023, OpenAI aveva adottato una politica chiara che vietava l'uso dei suoi modelli da parte del Pentagono, ma alcuni dipendenti hanno scoperto che il governo aveva già iniziato a testare Azure OpenAI, una versione dei modelli di OpenAI offerta da Microsoft. Questo accadeva in un contesto in cui Microsoft aveva da anni contratti con il Dipartimento della Difesa e era il principale investitore di OpenAI, con diritti estesi per commercializzare la tecnologia. In quel periodo, i dipendenti avevano visto funzionari del Pentagono entrare in sede a San Francisco, ma non erano autorizzati a commentare le attività private dell'azienda. La confusione si è protratta quando, nel 2023, alcuni dipendenti si sono chiesti se la politica di OpenAI si applicasse anche a Microsoft. Le dichiarazioni ufficiali di entrambe le aziende hanno sottolineato che i prodotti Azure OpenAI non erano soggetti alle politiche di OpenAI, ma le spiegazioni non hanno risolto le perplessità interne.
Il contesto di questa vicenda si radica in un lungo periodo di incertezze e contraddizioni. La politica del 2023 aveva vietato l'accesso ai modelli da parte del Pentagono, ma i dipendenti hanno scoperto che il governo aveva già iniziato a utilizzare Azure OpenAI, un servizio offerto da Microsoft. Questo ha sollevato domande su come OpenAI gestisse i rapporti con il governo, soprattutto in un momento in cui Microsoft era un partner strategico e aveva un ruolo chiave nella commercializzazione della tecnologia. Il dilemma si è complicato quando, nel 2024, OpenAI ha rimosso il divieto totale sulle attività militari, un cambiamento che ha suscitato reazioni contrastanti tra i dipendenti. Molti si sono preoccupati per il rischio di sfruttare la tecnologia per scopi non etici, mentre altri hanno visto nel cambiamento un passo verso una gestione più responsabile. La decisione di aprire le porte al Pentagono ha suscitato dibattiti interni, con alcuni che temevano l'implicazione per la sicurezza nazionale e altri che vedevano un'opportunità per contribuire al progresso tecnologico.
Le implicazioni di questa collaborazione sono profonde e sollevano preoccupazioni su come la tecnologia possa essere utilizzata in contesti di sicurezza nazionale. Secondo alcuni esperti legali, il deal di OpenAI con il Pentagono potrebbe permettere l'uso di AI per attività di sorveglianza legale, come l'analisi dei dati degli utenti da parte di terzi. Sarah Shoker, ex capo del team geopolitico di OpenAI, ha sottolineato che il rischio maggiore è per i civili in conflitti, poiché la complessità tecnica e le politiche di OpenAI rendono difficile comprendere l'impatto dei sistemi militari. Charlie Bullock, un ricercatore presso l'Institute for Law and AI, ha aggiunto che OpenAI ha ammesso di aver modificato i termini dell'accordo per rispondere a preoccupazioni specifiche, ma senza vedere i dettagli completi, la pubblica deve fidarsi delle dichiarazioni ufficiali. L'ambiguità rimane un problema, con i dipendenti che continuano a chiedere maggiore trasparenza e chiarezza su come la tecnologia viene utilizzata.
La situazione si è ulteriormente complicata con l'annuncio della partnership tra OpenAI e Anduril, un'azienda specializzata in sistemi di difesa. La collaborazione, che mira a sviluppare tecnologie per missioni di sicurezza nazionale, ha suscitato reazioni contrastanti all'interno dell'azienda. Alcuni dipendenti si sono preoccupati per la potenziale instabilità dei modelli di AI in contesti estremi, mentre altri hanno visto nel progetto un'opportunità per gestire le relazioni con le forze armate in modo responsabile. Altman, nel corso di un meeting generale, ha chiarito che il Pentagono non ha il potere di decidere come utilizzare la tecnologia, ma ha espresso interesse nel vendere i modelli a NATO. Questo svolta segna un passo avanti verso un'apertura più ampia, ma lascia aperte molte domande su come OpenAI equilibrerà innovazione e responsabilità. Il dibattito interno e le critiche esterne segnalano che il tema della collaborazione con le forze armate rimarrà un punto di tensione per l'azienda, con conseguenze che potrebbero influenzare il futuro della tecnologia AI a livello globale.
Fonte: Wired Articolo originale
Articoli Correlati
Da Centocelle al Pigneto: piano Ama su misura per pulire le strade del municipio
4 giorni fa
La guerra contro l'Iran minaccia forniture globali di chip e espansione AI
4 giorni fa
Oracle annuncia migliaia di licenziamenti per crisi di liquidità da investimenti aggressivi in IA
4 giorni fa