11 mar 2026

CBP sigla accordo con Clearview AI per riconoscimento facciale in targeting tattico

CBP e Clearview AI collaborano per usare la riconoscimento facciale, estendendo la sorveglianza. Preoccupazioni su privacy e dati, senza dettagli su gestione.

11 febbraio 2026 | 21:41 | 4 min di lettura
CBP sigla accordo con Clearview AI per riconoscimento facciale in targeting tattico
Foto: Wired

L'Ufficio delle Dogane e dei Confini degli Stati Uniti (CBP) ha annunciato un accordo di 225.000 dollari per l'accesso annuale al sistema di riconoscimento facciale Clearview AI, un'innovativa tecnologia che confronta foto con miliardi di immagini raccolte in rete. L'obiettivo del contratto è estendere l'uso di Clearview ai reparti di intelligence del Dipartimento delle Dogane e dei Confini (DHS), tra cui la sede centrale della Border Patrol e il National Targeting Center, enti che si occupano di raccogliere e analizzare dati per contrastare minacce alla sicurezza nazionale. La tecnologia, che permette di confrontare immagini con oltre 60 miliardi di foto disponibili pubblicamente, sarà integrata nei processi quotidiani degli analisti, non limitata a indagini isolate. Il servizio è stato descritto come parte di un'azione coordinata per "disrupt, degrade, and dismantle" reti e individui considerati a rischio, un termine che indica un approccio proattivo al controllo dei flussi migratori e alla prevenzione del crimine. L'accordo non specifica però i dettagli su come i dati saranno gestiti, né se le ricerche potranno includere cittadini statunitensi.

La collaborazione tra CBP e Clearview rappresenta un passo significativo nell'uso di tecnologie di intelligenza artificiale da parte delle forze di sicurezza, ma solleva preoccupazioni su privacy e diritti civili. Il contratto prevede che gli analisti accedano a informazioni sensibili, tra cui identificatori biometrici, e richiede accordi di non divulgazione per i contractor coinvolti. Non è chiaro se le immagini caricate dagli agenti saranno conservate per un periodo definito, né quali criteri governino le ricerche. L'uso di Clearview, che si basa su un modello commerciale che sfrutta la raccolta di foto da siti web pubblici, ha già suscitato critiche per la mancanza di consenso dei soggetti fotografati. Inoltre, la tecnologia è stata associata a una serie di operazioni di polizia in città statunitensi, dove sono stati arrestati cittadini per motivi di sicurezza, senza che fosse chiaro come fosse utilizzata la tecnologia per tracciare i soggetti coinvolti.

Il contesto del contratto si colloca all'interno di un dibattito più ampio su come le autorità federali stiano espandendo l'uso del riconoscimento facciale. Negli ultimi anni, il Dipartimento di Sicurezza Interna (DHS) ha fatto oggetto di critica per la sua politica di sorveglianza, in particolare in relazione all'uso di strumenti di intelligenza artificiale in operazioni non limitate ai confini. A marzo 2025, il Senatore Ed Markey ha presentato un emendamento che vieterebbe l'uso di tecnologie di riconoscimento facciale da parte delle agenzie come l'Immigration and Customs Enforcement (ICE) e il CBP, sostenendo che la biometria non sia utilizzata senza limiti, trasparenza o consenso pubblico. Il dibattito ha coinvolto anche organizzazioni di libertà civili, che hanno sottolineato il rischio di una sorveglianza generalizzata e la mancanza di garanzie per la protezione dei dati. L'uso di Clearview, che permette di creare profili digitali di individui senza il loro consenso, si inserisce in un quadro di tensioni tra sicurezza nazionale e diritti individuali.

L'analisi delle implicazioni del contratto rivela una contraddizione tra l'efficacia tecnologica e le preoccupazioni etiche. Secondo il National Institute of Standards and Technology (NIST), i sistemi di riconoscimento facciale, come Clearview, mostrano un'alta precisione su foto di alta qualità, ma fallo in contesti meno controllati, dove i tassi di errore possono superare il 20 per cento. Questi errori, però, non solo aumentano il rischio di identificazioni errate, ma anche di mancato riconoscimento di soggetti corretti. Il NIST ha quindi suggerito che le agenzie dovrebbero utilizzare tali sistemi in modo investigativo, fornendo a operatori umani una lista di candidati, piuttosto che una singola identificazione. Tuttavia, in casi in cui il database non contiene informazioni su un individuo, i sistemi potrebbero generare falsi positivi, portando a decisioni sbagliate. Questa dualità tra tecnologia e umanità solleva interrogativi su come le forze di sicurezza possano bilanciare la protezione della sicurezza nazionale con la tutela della privacy.

La chiusura dell'articolo si concentra sui prossimi sviluppi e sulle sfide future. Il contratto con Clearview rappresenta un esempio di come le tecnologie di intelligenza artificiale stiano diventando strumenti centrali per le operazioni di sicurezza, ma anche di come siano necessari controlli rigorosi per evitare abusi. Il dibattito su Clearview potrebbe influenzare la normativa futura, soprattutto se il Senatore Markey riuscirà a far approvare il suo emendamento, che potrebbe limitare l'uso di tali tecnologie. Inoltre, la necessità di un'analisi più approfondita delle capacità e dei limiti dei sistemi di riconoscimento facciale, come quelli testati dal NIST, potrebbe portare a politiche di governance più trasparenti. Il caso Clearview, infine, evidenzia la complessità di un equilibrio tra sicurezza e libertà, un tema che rimarrà centrale nei dibattiti politici e sociali negli anni a venire.

Condividi l'articolo

Articoli Correlati

Resta Informato

Iscriviti alla newsletter di Fattuale per ricevere le notizie più importanti direttamente nella tua casella email.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi

🍪

Questo sito utilizza i cookie

Utilizziamo cookie tecnici necessari e, con il tuo consenso, cookie analitici per migliorare la tua esperienza. Puoi accettare tutti i cookie, rifiutare quelli non essenziali o personalizzare le tue preferenze. Scopri di più

Preferenze Cookie

Cookie Tecnici

Sempre attivi

Essenziali per il funzionamento del sito. Includono cookie di sessione, preferenze di tema e sicurezza CSRF.

Cookie Analitici

Ci aiutano a capire come i visitatori interagiscono con il sito, raccogliendo informazioni in forma anonima (es. Google Analytics).

Cookie di Marketing

Utilizzati per mostrare annunci pubblicitari pertinenti ai tuoi interessi su questo sito e su altri siti web.

Grazie per l'iscrizione!

Controlla la tua email per confermare.

📧 Niente spam · 🔒 Privacy garantita · 🚫 Cancellati quando vuoi