Meta e altre aziende tech bannano OpenClaw per preoccupazioni di sicurezza informatica
L'ultimo mese ha segnato un clamoroso spostamento di fronte da parte di diversi esecutivi tecnologici, che hanno emesso avvertimenti urgenti ai propri dipendenti riguardo all'uso di un'innovativa tecnologia AI denominata OpenClaw.
L'ultimo mese ha segnato un clamoroso spostamento di fronte da parte di diversi esecutivi tecnologici, che hanno emesso avvertimenti urgenti ai propri dipendenti riguardo all'uso di un'innovativa tecnologia AI denominata OpenClaw. Jason Grad, cofondatore e CEO di Massive, una società che fornisce strumenti di proxy internet a milioni di utenti, ha inviato un messaggio su Slack alle sue 20 dipendenti, preoccupato per i rischi associati a questa applicazione. "Clawdbot, che ha generato un trend su X e LinkedIn, è attualmente non verificata e potenzialmente pericolosa per il nostro ambiente", ha scritto Grad, accompagnando il messaggio con un emoji di sirena rossa. L'attenzione si è concentrata su OpenClaw, un'interessante applicazione di intelligenza artificiale agente che permette di gestire compiti complessi come l'organizzazione di file, la ricerca web e lo shopping online, ma che ha sollevato preoccupazioni significative per la sua sicurezza. Non è stato Grad l'unico a prendere posizione: un esecutivo di Meta ha ritenuto necessario avvertire i propri dipendenti di non utilizzare l'applicazione sui laptop aziendali, minacciando di licenziare chi non seguisse le istruzioni.
L'attenzione su OpenClaw si è intensificata a causa della sua rapida popolarità, che ha visto un incremento esponenziale di utenti e contributi da parte di programmatori. Il progetto, lanciato da Peter Steinberger nel novembre del 2025 come strumento gratuito e open source, ha registrato un notevole incremento di interesse a partire da dicembre. La sua diffusione è stata ulteriormente accelerata da un gruppo di sviluppatori che hanno condiviso esperienze e funzionalità aggiuntive su piattaforme social, creando un dibattito tra innovazione e sicurezza. Steinberger ha recentemente unito le sue forze a OpenAI, azienda che ha annunciato di mantenere OpenClaw come open source e di supportarlo attraverso una fondazione dedicata. Tuttavia, il potenziale rischio associato all'applicazione ha spinto diverse aziende a adottare misure preventive, anche se alcune hanno optato per un approccio più cauto, preferendo di non introdurre un divieto formale.
Il contesto di OpenClaw si colloca all'interno di un panorama tecnologico in rapida evoluzione, in cui l'adozione di strumenti AI rappresenta sia un'opportunità sia un'area di rischio. L'applicazione richiede un livello di conoscenza di base in ingegneria software per essere configurata, ma una volta attivata, necessita di poche istruzioni per prendere il controllo di un computer e interagire con altre applicazioni. Questo livello di autonomia ha suscitato preoccupazioni tra esperti di cybersecurity, che hanno chiesto a aziende e dipendenti di adottare misure rigorose per limitare l'uso di OpenClaw. Alcuni esecutivi, come il presidente di Valere, Guy Pistone, hanno espresso preoccupazioni specifiche riguardo al potenziale accesso a dati sensibili, tra cui informazioni finanziarie e codice sorgente, che potrebbero essere esposti se l'applicazione venisse utilizzata in modo improprio. Le risposte di aziende come Valere e Massive mostrano una spaziale diversità di approcci, con alcuni che hanno scelto di testare l'applicazione in ambienti isolati, mentre altri hanno optato per un blocco totale.
L'impatto delle misure adottate da aziende e tecnologi si estende al di là delle semplici politiche interne, influenzando il dibattito sulle implicazioni etiche e pratiche dell'adozione di tecnologie AI. L'approccio di "mitigare prima, investigare dopo" adottato da Grad riflette una strategia diffusa tra aziende preoccupate di proteggere i propri dati e la reputazione. Tuttavia, il caso di OpenClaw ha anche sottolineato la tensione tra l'innovazione tecnologica e la sicurezza, con alcuni esecutivi che riconoscono il potenziale di questa applicazione per il futuro, pur ritenendo necessario implementare misure di controllo. Alcuni dipendenti, come quelli di Valere, hanno sottolineato l'importanza di un approccio critico, riconoscendo che l'applicazione potrebbe essere manipolata da hacker, ad esempio tramite email malevole che potrebbero indurre l'AI a condividere dati sensibili. Queste preoccupazioni hanno spinto aziende come Valere a dedicare risorse per testare e migliorare la sicurezza di OpenClaw, anche se il presidente dell'azienda ha riconosciuto la difficoltà di trovare soluzioni adeguate entro un periodo limitato.
La situazione attuale segna un punto di svolta nel dibattito tra innovazione e sicurezza, con aziende e tecnologi che cercano di bilanciare il potenziale di OpenClaw con i rischi associati. Mentre alcuni esecutivi hanno scelto di bloccare l'applicazione, altri stanno esplorando modi per integrarla in modo sicuro, come il caso di Massive, che ha testato OpenClaw su macchine isolate e ha lanciato ClawPod per permettere l'uso di agenti AI attraverso i propri servizi. Tuttavia, il futuro di OpenClaw rimane incerto, con aziende che cercano di adottare misure preventive senza compromettere la loro capacità di rimanere competitive. L'attenzione su questa tecnologia potrebbe continuare a crescere, in quanto il settore tecnologico si confronta con la sfida di gestire l'innovazione in un contesto di crescente richiesta di sicurezza. L'esperienza di OpenClaw potrebbe diventare un modello per come le aziende affrontano il dilemma tra progresso e protezione, in un'era in cui l'AI sta diventando sempre più parte integrante del lavoro quotidiano.
Fonte: Wired Articolo originale
Articoli Correlati
Da Centocelle al Pigneto: piano Ama su misura per pulire le strade del municipio
4 giorni fa
La guerra contro l'Iran minaccia forniture globali di chip e espansione AI
4 giorni fa
Oracle annuncia migliaia di licenziamenti per crisi di liquidità da investimenti aggressivi in IA
4 giorni fa