AI per la guerra: modelli reali
Un gruppo di startup tecnologiche sta lanciando un progetto ambizioso per sviluppare modelli di intelligenza artificiale (IA) dedicati esclusivamente alle applicazioni militari, mettendo in discussione il ruolo delle grandi aziende come Anthropic.
Un gruppo di startup tecnologiche sta lanciando un progetto ambizioso per sviluppare modelli di intelligenza artificiale (IA) dedicati esclusivamente alle applicazioni militari, mettendo in discussione il ruolo delle grandi aziende come Anthropic. Smack Technologies, una startup emergente che ha raccolto 32 milioni di dollari in un round di finanziamento recente, si sta concentrando sulla creazione di sistemi AI in grado di pianificare e eseguire operazioni militari con un livello di efficienza superiore a quelle disponibili oggi, come Claude. A differenza di Anthropic, che ha recentemente rifiutato un contratto di 200 milioni di dollari con il Dipartimento della Difesa statunitense per motivi etici, Smack sembra meno preoccupata di limitare l'uso delle sue tecnologie nel settore militare. Il CEO di Smack, Andy Markoff, un ex ufficiale delle Forze Marines, ha sottolineato che la responsabilità di garantire un utilizzo etico del software spetta a chi lo deploya, non a chi lo sviluppa. Questo approccio contrasta con la politica di Anthropic, che ha rifiutato di permettere l'uso delle sue modelli in armi autonome, causando un conflitto con il governo americano.
La tecnologia di Smack si basa su un processo di apprendimento per tentativi, simile a come Google ha addestrato AlphaGo nel 2017. I modelli vengono testati in scenari di guerra simulati, con esperti che forniscono feedback per correggere le strategie scelte. Sebbene la startup non abbia il budget di un laboratorio tradizionale, Markoff ha dichiarato di investire milioni per addestrare i primi modelli. L'obiettivo è creare sistemi in grado di ottimizzare i piani operativi, riducendo la manuale attività di pianificazione che oggi si svolge con mappe e appunti. Markoff ha sottolineato che i modelli generici, come Claude, non sono adatti per controllare hardware fisico o identificare target, poiché non sono addestrati su dati militari e mancano di una comprensione del mondo reale. Questo crea un divario tra le capacità dei modelli generici e quelle necessarie per le operazioni di guerra.
Il dibattito sull'uso dell'IA nel settore militare è diventato un tema centrale negli ultimi anni, soprattutto dopo il conflitto tra Anthropic e il Dipartariamento della Difesa. L'azienda ha rifiutato di permettere l'uso delle sue tecnologie in armi autonome, causando tensioni che hanno portato il segretario alla Difesa Pete Hegseth a definire Anthropic un rischio per la catena di approvvigionamento. Markoff ha sostenuto che la preoccupazione per l'automazione totale del kill chain - la sequenza di decisioni per l'uso della forza - è esagerata, poiché le forze armate non hanno intenzione di abbandonare l'umanità nel processo decisionale. Tuttavia, molti esperti, come Rebecca Crootof, legalista presso l'Università di Richmond, hanno riconosciuto che oltre 30 stati, tra cui gli Stati Uniti, utilizzano sistemi autonomi con vari gradi di controllo, alcuni dei quali potrebbero essere definiti completamente autonomi. Questo crea un quadro complesso in cui l'IA non è solo un'opzione, ma un elemento già integrato in alcune operazioni.
L'impiego dell'IA in contesti di guerra richiede un equilibrio tra potenziale vantaggio e rischi incontrollati. Markoff ha ipotizzato che, in caso di un conflitto con un "nemico vicino" come la Russia o la Cina, l'automazione potrebbe offrire un vantaggio strategico, chiamato "dominio decisionale". Tuttavia, esperimenti recenti, come quelli condotti da un ricercatore presso la King's College London, hanno mostrato che i modelli linguistici di grandi dimensioni tendono a escalation di conflitti nucleari in scenari simulati. Questo solleva preoccupazioni su come l'IA possa influenzare decisioni di alto impatto, soprattutto quando non è in grado di distinguere tra combattenti e civili. Anna Hehir, esperta del Future of Life Institute, ha avvertito che i sistemi di IA non sono affidabili, prevedibili o spiegabili, rendendoli inadatti per situazioni critiche. A questo si aggiunge il fatto che il governo non ha ancora definito linee chiare per il deployment delle tecnologie di IA, creando un ambiente di incertezza.
Il futuro dell'IA nel settore militare dipende da una serie di fattori, tra cui la capacità di sviluppare modelli specializzati e la definizione di regole etiche. Smack e altre startup potrebbero rappresentare un'alternativa alle grandi aziende, ma il loro lavoro non è privo di critiche. Mentre alcuni vedono nell'automazione un'opportunità per migliorare la precisione e l'efficienza, altri temono che la tecnologia possa essere utilizzata in modi imprevedibili, soprattutto in contesti di guerra. La sfida è trovare un equilibrio tra innovazione e responsabilità, garantendo che l'IA non diventi un strumento di potere senza controllo. In un mondo sempre più dipendente dall'intelligenza artificiale, il dibattito su come utilizzarla in ambiti sensibili come la guerra continuerà a essere centrale, con implicazioni che potrebbero riguardare non solo le strategie militari, ma anche la sicurezza globale.
Fonte: Wired Articolo originale
Argomenti
Articoli Correlati
Da Centocelle al Pigneto: piano Ama su misura per pulire le strade del municipio
4 giorni fa
La guerra contro l'Iran minaccia forniture globali di chip e espansione AI
4 giorni fa
Oracle annuncia migliaia di licenziamenti per crisi di liquidità da investimenti aggressivi in IA
4 giorni fa