11 mar 2026

Canada indaga su cosa sapeva OpenAI sullo sparatore di Tumbler Ridge

Il ministro canadese ha criticato OpenAI per non aver segnalato un account legato a un massacro, suscitando dibattiti su privacy e sicurezza. La vicenda ha acceso il dibattito su regolamentazione delle piattaforme e collaborazione tra aziende e autorità per prevenire futuri incidenti.

24 febbraio 2026 | 17:41 | 5 min di lettura
Canada indaga su cosa sapeva OpenAI sullo sparatore di Tumbler Ridge
Foto: The New York Times

La scorsa settimana, il ministro canadese dell'intelligenza artificiale, Evan Solomon, ha convocato un incontro a Ottawa con rappresentanti senior di OpenAI per discutere delle misure di sicurezza adottate dal colosso tecnologico dopo aver scoperto che l'azienda non aveva segnalato alle autorità un utente la cui account era stato sospeso mesi prima di un massacro avvenuto in British Columbia. L'episodio, che ha causato la morte di otto persone, ha suscitato preoccupazione tra i responsabili governativi, che hanno espresso indignazione per la mancata collaborazione con le forze dell'ordine. La decisione di OpenAI di non informare le autorità, nonostante il contatto con l'account dell'utente fosse stato segnalato interno, ha suscitato critiche e dibattiti sull'equilibrio tra privacy e sicurezza. La vicenda ha acceso un dibattito nazionale sul ruolo delle piattaforme digitali nella prevenzione di atti criminali e sulle responsabilità legali e etiche che gravano su aziende come OpenAI.

L'incidente ha avuto luogo il 10 febbraio, quando Jesse Van Rootselaar, una ragazza di 18 anni, ha ucciso la madre e il fratello minore a casa sua, poi ha proseguito verso una scuola dove ha sparato a cinque bambini e a un insegnante, ferendone altri due. La vittima si è suicidata davanti alle forze dell'ordine che stavano rispondendo all'incidente. Le indagini hanno rivelato che Van Rootselaar aveva mostrato un interesse per armi e violenza estrema, nonché sofferto di problemi di salute mentale, come attestato da un'analisi dei suoi account social effettuata da The New York Times. I messaggi inviati al chatbot ChatGPT avevano sollevato preoccupazioni interne all'azienda già nel giugno scorso, quando il sistema di rilevamento di abusi ha segnalato contenuti problematici. OpenAI ha poi sospeso l'account della ragazza, ma non ha condiviso i dettagli con le autorità. L'azienda ha spiegato che non aveva ritenuto necessario informare le forze dell'ordine, poiché non aveva trovato prove di un piano concreto per commettere un crimine.

Il contesto della vicenda si intreccia con le politiche di sicurezza di OpenAI, che mirano a proteggere la privacy degli utenti senza mettere a rischio la loro sicurezza. L'azienda ha sottolineato il suo impegno a bilanciare la protezione dei dati con la prevenzione di potenziali minacce, evitando di emettere avvisi che potrebbero causare stress inutili o interrompere la vita privata degli utenti. Tuttavia, il caso di Van Rootselaar ha messo in luce le criticità di questo approccio. Molti dipendenti di OpenAI hanno espresso preoccupazione per la mancanza di trasparenza e di collaborazione con le autorità, temendo che una politica troppo rigida potrebbe portare a conseguenze tragiche. Inoltre, il caso ha riacceso il dibattito sulla necessita di regolamentare le piattaforme digitali, soprattutto in materia di sicurezza pubblica. Il governo canadese, attraverso il ministro Solomon, ha espresso la sua intenzione di valutare le misure da adottare per garantire un maggiore controllo su dati sensibili e prevenire futuri incidenti.

L'analisi delle conseguenze di questa vicenda rivela una serie di sfide per il settore tecnologico e per le istituzioni pubbliche. Da un lato, la questione solleva interrogativi sull'efficacia delle politiche di sicurezza attualmente in vigore, soprattutto in un'epoca in cui le piattaforme digitali influenzano in modo crescente la vita quotidiana. Dall'altro, il caso mette in luce la necessità di un dialogo tra aziende tecnologiche e governi per creare standard condivisi che siano in grado di gestire situazioni complesse come quelle che coinvolgono la sicurezza pubblica. Inoltre, il caso ha rafforzato la richiesta di un quadro normativo più rigoroso in materia di dati e responsabilità delle aziende. La Royal Canadian Mounted Police, che sta indagando sull'omicidio, ha richiesto un ordine per obbligare le piattaforme digitali e le aziende di intelligenza artificiale a conservare potenziali prove. Questa mossa indica una volontà di parte delle autorità di affrontare il problema con un approccio più proattivo.

La chiusura di questa vicenda potrebbe segnare un punto di svolta per il rapporto tra tecnologia e governance. Il governo canadese ha espresso la sua determinazione a garantire alle forze dell'ordine gli strumenti necessari per indagare su episodi simili, ma è chiaro che la questione non si risolverà solo con nuove leggi. È necessario un lavoro di collaborazione tra aziende e autorità, accompagnato da un'adeguata formazione delle risorse umane e da una maggiore trasparenza nelle politiche di sicurezza. Il caso di Van Rootselaar ha dimostrato che i limiti di un sistema che privilegia la privacy senza un controllo adeguato possono portare a conseguenze devastanti. L'obiettivo ora è trovare un equilibrio che protegga sia i diritti degli utenti che la sicurezza collettiva, senza abbandonare i principi di libertà e privacy che sono alla base della società digitale moderna. Il futuro di questa vicenda dipenderà da quanto le aziende saranno disposte a modificare le loro politiche e da quanto le autorità saranno in grado di adottare misure efficaci e giuste.

Fonte: The New York Times Articolo originale

Condividi l'articolo

Articoli Correlati

Resta Informato

Iscriviti alla newsletter di Fattuale per ricevere le notizie più importanti direttamente nella tua casella email.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi

🍪

Questo sito utilizza i cookie

Utilizziamo cookie tecnici necessari e, con il tuo consenso, cookie analitici per migliorare la tua esperienza. Puoi accettare tutti i cookie, rifiutare quelli non essenziali o personalizzare le tue preferenze. Scopri di più

Preferenze Cookie

Cookie Tecnici

Sempre attivi

Essenziali per il funzionamento del sito. Includono cookie di sessione, preferenze di tema e sicurezza CSRF.

Cookie Analitici

Ci aiutano a capire come i visitatori interagiscono con il sito, raccogliendo informazioni in forma anonima (es. Google Analytics).

Cookie di Marketing

Utilizzati per mostrare annunci pubblicitari pertinenti ai tuoi interessi su questo sito e su altri siti web.

Grazie per l'iscrizione!

Controlla la tua email per confermare.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi