11 mar 2026

AI per la guerra: modelli reali

Un gruppo di startup tecnologiche sta lanciando un progetto ambizioso per sviluppare modelli di intelligenza artificiale (IA) dedicati esclusivamente alle applicazioni militari, mettendo in discussione il ruolo delle grandi aziende come Anthropic.

05 marzo 2026 | 00:48 | 4 min di lettura
AI per la guerra: modelli reali
Foto: Wired

Un gruppo di startup tecnologiche sta lanciando un progetto ambizioso per sviluppare modelli di intelligenza artificiale (IA) dedicati esclusivamente alle applicazioni militari, mettendo in discussione il ruolo delle grandi aziende come Anthropic. Smack Technologies, una startup emergente che ha raccolto 32 milioni di dollari in un round di finanziamento recente, si sta concentrando sulla creazione di sistemi AI in grado di pianificare e eseguire operazioni militari con un livello di efficienza superiore a quelle disponibili oggi, come Claude. A differenza di Anthropic, che ha recentemente rifiutato un contratto di 200 milioni di dollari con il Dipartimento della Difesa statunitense per motivi etici, Smack sembra meno preoccupata di limitare l'uso delle sue tecnologie nel settore militare. Il CEO di Smack, Andy Markoff, un ex ufficiale delle Forze Marines, ha sottolineato che la responsabilità di garantire un utilizzo etico del software spetta a chi lo deploya, non a chi lo sviluppa. Questo approccio contrasta con la politica di Anthropic, che ha rifiutato di permettere l'uso delle sue modelli in armi autonome, causando un conflitto con il governo americano.

La tecnologia di Smack si basa su un processo di apprendimento per tentativi, simile a come Google ha addestrato AlphaGo nel 2017. I modelli vengono testati in scenari di guerra simulati, con esperti che forniscono feedback per correggere le strategie scelte. Sebbene la startup non abbia il budget di un laboratorio tradizionale, Markoff ha dichiarato di investire milioni per addestrare i primi modelli. L'obiettivo è creare sistemi in grado di ottimizzare i piani operativi, riducendo la manuale attività di pianificazione che oggi si svolge con mappe e appunti. Markoff ha sottolineato che i modelli generici, come Claude, non sono adatti per controllare hardware fisico o identificare target, poiché non sono addestrati su dati militari e mancano di una comprensione del mondo reale. Questo crea un divario tra le capacità dei modelli generici e quelle necessarie per le operazioni di guerra.

Il dibattito sull'uso dell'IA nel settore militare è diventato un tema centrale negli ultimi anni, soprattutto dopo il conflitto tra Anthropic e il Dipartariamento della Difesa. L'azienda ha rifiutato di permettere l'uso delle sue tecnologie in armi autonome, causando tensioni che hanno portato il segretario alla Difesa Pete Hegseth a definire Anthropic un rischio per la catena di approvvigionamento. Markoff ha sostenuto che la preoccupazione per l'automazione totale del kill chain - la sequenza di decisioni per l'uso della forza - è esagerata, poiché le forze armate non hanno intenzione di abbandonare l'umanità nel processo decisionale. Tuttavia, molti esperti, come Rebecca Crootof, legalista presso l'Università di Richmond, hanno riconosciuto che oltre 30 stati, tra cui gli Stati Uniti, utilizzano sistemi autonomi con vari gradi di controllo, alcuni dei quali potrebbero essere definiti completamente autonomi. Questo crea un quadro complesso in cui l'IA non è solo un'opzione, ma un elemento già integrato in alcune operazioni.

L'impiego dell'IA in contesti di guerra richiede un equilibrio tra potenziale vantaggio e rischi incontrollati. Markoff ha ipotizzato che, in caso di un conflitto con un "nemico vicino" come la Russia o la Cina, l'automazione potrebbe offrire un vantaggio strategico, chiamato "dominio decisionale". Tuttavia, esperimenti recenti, come quelli condotti da un ricercatore presso la King's College London, hanno mostrato che i modelli linguistici di grandi dimensioni tendono a escalation di conflitti nucleari in scenari simulati. Questo solleva preoccupazioni su come l'IA possa influenzare decisioni di alto impatto, soprattutto quando non è in grado di distinguere tra combattenti e civili. Anna Hehir, esperta del Future of Life Institute, ha avvertito che i sistemi di IA non sono affidabili, prevedibili o spiegabili, rendendoli inadatti per situazioni critiche. A questo si aggiunge il fatto che il governo non ha ancora definito linee chiare per il deployment delle tecnologie di IA, creando un ambiente di incertezza.

Il futuro dell'IA nel settore militare dipende da una serie di fattori, tra cui la capacità di sviluppare modelli specializzati e la definizione di regole etiche. Smack e altre startup potrebbero rappresentare un'alternativa alle grandi aziende, ma il loro lavoro non è privo di critiche. Mentre alcuni vedono nell'automazione un'opportunità per migliorare la precisione e l'efficienza, altri temono che la tecnologia possa essere utilizzata in modi imprevedibili, soprattutto in contesti di guerra. La sfida è trovare un equilibrio tra innovazione e responsabilità, garantendo che l'IA non diventi un strumento di potere senza controllo. In un mondo sempre più dipendente dall'intelligenza artificiale, il dibattito su come utilizzarla in ambiti sensibili come la guerra continuerà a essere centrale, con implicazioni che potrebbero riguardare non solo le strategie militari, ma anche la sicurezza globale.

Condividi l'articolo

Articoli Correlati

Resta Informato

Iscriviti alla newsletter di Fattuale per ricevere le notizie più importanti direttamente nella tua casella email.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi

🍪

Questo sito utilizza i cookie

Utilizziamo cookie tecnici necessari e, con il tuo consenso, cookie analitici per migliorare la tua esperienza. Puoi accettare tutti i cookie, rifiutare quelli non essenziali o personalizzare le tue preferenze. Scopri di più

Preferenze Cookie

Cookie Tecnici

Sempre attivi

Essenziali per il funzionamento del sito. Includono cookie di sessione, preferenze di tema e sicurezza CSRF.

Cookie Analitici

Ci aiutano a capire come i visitatori interagiscono con il sito, raccogliendo informazioni in forma anonima (es. Google Analytics).

Cookie di Marketing

Utilizzati per mostrare annunci pubblicitari pertinenti ai tuoi interessi su questo sito e su altri siti web.

Grazie per l'iscrizione!

Controlla la tua email per confermare.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi