Come i chatbot cinesi si censurano
La ricerca condotta da studiosi delle università di Stanford e Princeton ha rivelato un'ampia differenza tra modelli di intelligenza artificiale cinesi e americani quando si tratta di rispondere a domande politicamente sensibili.
La ricerca condotta da studiosi delle università di Stanford e Princeton ha rivelato un'ampia differenza tra modelli di intelligenza artificiale cinesi e americani quando si tratta di rispondere a domande politicamente sensibili. L'analisi, pubblicata in un articolo recente, ha confrontato le risposte di quattro modelli cinesi e cinque modelli americani ad un insieme di 145 domande che riguardavano temi come la storia recente del Paese, i diritti umani e la politica interna. I risultati mostrano che i modelli cinesi rifiutavano significativamente più domande rispetto a quelli statunitensi, con tassi di rifiuto che variavano tra il 32 e il 36 per cento. Inoltre, quando non rifiutavano direttamente le domande, fornivano risposte più brevi e meno accurate. Questi dati sottolineano un'ampia diffusione della censura digitale in Cina, ma anche una complessità nel comprendere i meccanismi che ne sono alla base. La ricerca ha rivelato che la censura non è solo una conseguenza della gestione manuale dei dati, ma un fenomeno che si evolve con il tempo, adattandosi ai nuovi strumenti tecnologici. Questo studio rappresenta un'importante testimonianza del controllo esercitato dal governo cinese sulle tecnologie emergenti, un argomento che ha suscitato interesse e preoccupazione nel mondo accademico e politico.
La metodologia del lavoro ha seguito un approccio rigoroso, con un'analisi ripetuta 100 volte per garantire la validità dei dati. I ricercatori hanno messo a confronto le risposte dei modelli cinesi e americani, tenendo conto anche delle differenze nella preparazione iniziale e nel training successivo. Un aspetto chiave dell'indagine era il tentativo di isolare l'impatto della pre-training e del post-training. La domanda fondamentale era se la censura fosse dovuta a interventi manuali da parte dei sviluppatori o al fatto che i modelli fossero stati addestrati su dati già filtrati. Jennifer Pan, professore di scienze politiche alla Stanford University e coautrice dello studio, ha spiegato che il sistema cinese di censura ha già eliminato una quantità significativa di informazioni negli anni, rendendo difficile valutare il ruolo esatto dei dati di addestramento. Tuttavia, i risultati suggeriscono che l'intervento diretto dei sviluppatori ha un impatto maggiore. Anche quando i modelli cinesi rispondevano in inglese, un linguaggio in cui i dati di addestramento erano teoricamente più diversificati, hanno mostrato una maggiore censura. Questo indica che il controllo non è solo un effetto collaterale della censura esistente, ma un processo attivo e deliberato.
Il contesto della ricerca si inserisce in un quadro più ampio di dibattito sul controllo delle tecnologie da parte degli Stati. La Cina ha lungamente adottato una politica di censura digitale, con un sistema che blocca accesso a informazioni considerate sensibili. Questo sistema è stato ulteriormente rafforzato con lo sviluppo delle tecnologie emergenti, come l'intelligenza artificiale. La ricerca di Pan e dei suoi colleghi si inserisce in un dibattito globale sulle implicazioni della censura digitale, un tema che ha visto un crescente interesse negli ultimi anni. L'obiettivo principale del lavoro è stato quello di fornire un'analisi quantificabile e replicabile delle tendenze di censura nei modelli di intelligenza artificiale cinesi. Questo è particolarmente importante perché, nonostante la censura sia visibile in alcune situazioni, è difficile valutare il suo impatto su utenti normali e identificare la fonte della manipolazione. L'indagine ha quindi un valore sia accademico che pratico, offrendo una base per ulteriori studi e discussioni. Inoltre, la ricerca ha evidenziato la complessità del fenomeno, poiché la censura non si limita al rifiuto delle domande, ma include anche la distorsione delle informazioni e la generazione di dati falsi.
Le implicazioni di questa ricerca vanno oltre la semplice analisi delle risposte dei modelli. Il lavoro ha rivelato come la censura digitale non solo limiti l'accesso all'informazione, ma possa anche influenzare la percezione della realtà. I ricercatori hanno sottolineato che il fenomeno della "hallucinazione" nei modelli, cioè la capacità di generare informazioni inesatte, rende più difficile distinguere tra censura e errori di previsione. Un esempio fornito dagli autori riguarda un modello che ha descritto Liu Xiaobo, un dissidente cinese, come un "scienziato giapponese" che aveva contribuito alla tecnologia delle armi nucleari. Questo è un esempio di un errore che potrebbe essere attribuito a una mancanza di dati o a un intervento deliberato per distorcere la verità. La difficoltà nel distinguere tra queste due possibilità ha reso il lavoro di ricerca particolarmente complesso. Inoltre, il lavoro ha evidenziato come la censura sia più efficace quando è meno rilevabile, un concetto che si applica sia ai modelli di intelligenza artificiale che ai meccanismi di controllo governativo. Questo implica che le strategie di censura devono evolversi per rimanere efficaci, anche di fronte a nuove tecnologie e metodi di analisi.
La ricerca ha anche sollevato questioni importanti riguardo ai metodi di studio e alle sfide future nel campo della censura digitale. I ricercatori hanno riconosciuto che l'accesso ai modelli cinesi è limitato, soprattutto quando si tratta di domande sensibili, il che rende difficile condurre test approfonditi. Inoltre, la velocità di sviluppo dei modelli richiede una gestione costante degli strumenti necessari per analizzarli, con un costo elevato in termini di risorse computazionali. Un altro aspetto critico è la rapidità con cui i modelli evolvono, rendendo obsoleti alcuni studi prima che possano essere completati. Questo crea una pressione costante sui ricercatori per mantenere il passo con le innovazioni tecnologiche. Nonostante le sfide, la ricerca sull'intelligenza artificiale cinese rimane un settore in crescita, con un potenziale per influenzare il dibattito globale sulla libertà di informazione e sulla tecnologia. L'importanza di questo lavoro si estende al di fuori del contesto accademico, poiché offre un'indicazione su come le tecnologie emergenti possano essere utilizzate per controllare l'accesso all'informazione, un tema che continuerà a essere al centro di dibattiti politici e sociali.
Fonte: Wired Articolo originale
Articoli Correlati
Da Centocelle al Pigneto: piano Ama su misura per pulire le strade del municipio
4 giorni fa
La guerra contro l'Iran minaccia forniture globali di chip e espansione AI
4 giorni fa
Oracle annuncia migliaia di licenziamenti per crisi di liquidità da investimenti aggressivi in IA
4 giorni fa