Corsa Sconsiderata e Suicida: Minaccia di Intelligenza Artificiale
Nel novembre del 2017, un breve film horror di otto minuti è diventato virale su Internet, suscitando preoccupazione globale.
Nel novembre del 2017, un breve film horror di otto minuti è diventato virale su Internet, suscitando preoccupazione globale. Il film, intitolato Slaughterbots, immaginava una futura realtà in cui droni autonomi, dotati di software di riconoscimento facciale, avrebbero infiltrato il Congresso degli Stati Uniti e le università, identificando e uccidendo senatori e studenti che avevano denunciato la corruzione. La trama, però, non chiariva chi fosse responsabile degli attacchi: un governo, un gruppo terroristico o un'azienda tecnologica all'avanguardia che produceva armi intelligenti, guidata da un giovane e carismatico CEO che promuoveva i droni killer come il futuro della guerra. Il film, nato come un avvertimento, fu accolto con scetticismo iniziale, ma oggi le sue previsioni sembrano avvicinarsi alla realtà.
La trama di Slaughterbots è stata realizzata da Stuart Russell, uno dei ricercatori di intelligenza artificiale più influenti al mondo, che ha espresso preoccupazione per il rischio di unirsi l'IA a sistemi militari. Nella conclusione del film, Russell appare in diretta e sottolinea l'urgenza di agire per evitare un futuro in cui macchine prendono decisioni di vita o morte. "Abbiamo un'opportunità per prevenire il futuro che hai appena visto", ha detto, "ma la finestra per agire si sta chiudendo in fretta." La sua preoccupazione era legata alla possibilità che l'automazione e l'intelligenza artificiale potessero essere abusate, creando strumenti letali senza controllo umano. Nonostante l'attenzione suscitata, molti esperti dell'epoca, come Paul Scharre, un ex analista del Pentagon, hanno rifiutato la visione del film, definendola "fears-mongering" o paura sensazionalista.
Negli anni seguenti, il mondo si è rivelato più vicino alla trama del film di quanto si fosse immaginato. I droni hanno trasformato radicalmente il modo in cui si combattono le guerre. In Ucraina, ad esempio, i droni sono diventati l'arma dominante sul campo di battaglia, monitorando i movimenti delle truppe e attaccando qualsiasi movimento: soldati, carri armati, veicoli di trasporto. Alcune stime indicano che oltre il 90% dei soldati russi uccisi in battaglia sia morto a causa di droni ucraini. Questo scenario dimostra come la tecnologia descritta in Slaughterbots non sia più fantascienza, ma una realtà crescente. Le capacità di targeting automatizzato e la capacità di operare in modo autonomo hanno reso i droni strumenti di guerra altamente efficaci, ma anche estremamente pericolosi.
L'evoluzione della tecnologia ha portato a un boom nel settore delle unità non pilotate, tra cui i droni, che combinano le moderne tecnologie belliche con l'intelligenza artificiale. Nel 2021, un'azienda tedesca, Helsing, è stata fondata e oggi è valutata a 12 miliardi di euro. Allo stesso tempo, aziende come Shield AI, basata a San Diego, stanno raccogliendo più di un miliardo di dollari di finanziamenti da parte degli investitori. Palantir, un gigante software che si dice utilizzare l'IA per distinguere amici da nemici, ha visto il suo CEO, Alexander Karp, parlare in modo simile al boss immaginario del film, esortando i nemici a "svegliarsi spaventati" e "andare a letto spaventati". Questi esempi evidenziano come il mondo reale stia rapidamente avanzando verso scenari che un tempo erano solo immaginari.
L'impiego crescente di droni e intelligenza artificiale nel settore difensivo solleva questioni etiche e strategiche di fondamentale importanza. L'autonomia delle macchine nel prendere decisioni di vita o morte mette in discussione il ruolo umano nel controllo della guerra, aumentando il rischio di errori fatali o abusi. Gli esperti preoccupati hanno sottolineato che l'assenza di un controllo umano potrebbe portare a una escalation di conflitti, con conseguenze imprevedibili. Al tempo stesso, il progresso tecnologico continua a spostare il potere verso chi possiede le risorse e le competenze per sviluppare armi intelligenti. La sfida per il futuro sarà trovare un equilibrio tra innovazione e responsabilità, garantendo che la tecnologia non venga utilizzata per ampliare le capacità di distruzione, ma per proteggere la pace e la sicurezza globale. Il dibattito sull'intelligenza artificiale e il controllo delle armi non è più un'ipotesi futura, ma una realtà che richiede immediate azioni per prevenire scenari catastrofici.
Fonte: Der Spiegel Articolo originale
Articoli Correlati
Da Centocelle al Pigneto: piano Ama su misura per pulire le strade del municipio
4 giorni fa
La guerra contro l'Iran minaccia forniture globali di chip e espansione AI
4 giorni fa
Oracle annuncia migliaia di licenziamenti per crisi di liquidità da investimenti aggressivi in IA
4 giorni fa