Un recente leak di dati ha rivelato che la Cina sta sfruttando l’intelligenza artificiale per migliorare il proprio sistema di censura online. Un database trapelato e analizzato da TechCrunch mostra come un modello di linguaggio avanzato (LLM) sia stato addestrato su 133.000 esempi per individuare automaticamente contenuti considerati sensibili dal governo cinese. Questo sistema segna un’evoluzione significativa rispetto ai tradizionali metodi di censura, aumentando l’efficienza e la precisione della repressione digitale.
L’AI per individuare il dissenso
Il modello di intelligenza artificiale serve per analizzare contenuti riguardanti politica, società e ambito militare, individuando temi ritenuti prioritari dal governo. Tra gli argomenti censurati figurano la corruzione, la povertà rurale, gli scandali legati alla sicurezza alimentare, le frodi finanziarie e le proteste sul lavoro. Anche la satira politica e le discussioni sulla sovranità di Taiwan sono strettamente monitorate.
Secondo Xiao Qiang, ricercatore dell’Università di Berkeley, questo nuovo sistema rappresenta un salto di qualità nella censura di stato: invece di affidarsi esclusivamente a filtri di parole chiave e revisione manuale, l’uso degli LLM permette un controllo più capillare e automatizzato delle informazioni online.
Com’è stato scoperto il dataset della Cina
Il ricercatore di sicurezza NetAskari ha trovato il dataset in un database Elasticsearch non protetto e ospitato su un server Baidu.
Sebbene non vi siano prove dirette di un coinvolgimento di Baidu, la presenza di tali dati su una piattaforma commerciale suggerisce che molte organizzazioni potrebbero essere coinvolte nello sviluppo della tecnologia censoria.
Secondo TechCrunch, i dati più recenti nel database risalgono a dicembre 2024, confermando che il sistema è ancora attivo e in fase di aggiornamento. L’LLM analizza ogni contenuto in modo simile a come ChatGPT elabora i prompt degli utenti, segnalando immediatamente qualsiasi riferimento a tematiche sensibili.
L’obiettivo è il controllo dell’opinione pubblica
Il database indica che il compito di questa AI è sul “lavoro di opinione pubblica”, un termine che in Cina si riferisce alle attività di censura e propaganda coordinate dall’Amministrazione del Cyberspazio cinese (CAC). Michael Caster, esperto di diritti digitali, sottolinea che il fine ultimo è garantire che la narrazione del governo resti incontrastata, eliminando qualsiasi punto di vista alternativo.
Anche il presidente cinese Xi Jinping ha definito Internet come il “fronte principale” per il controllo dell’opinione pubblica, rendendo evidente l’importanza strategica della censura digitale nel mantenere la stabilità del regime.
La scoperta di questo sistema AI si inserisce in un quadro più ampio in cui i governi autoritari stanno adottando le più avanzate tecnologie per la sorveglianza e la repressione. OpenAI ha recentemente denunciato che alcuni attori cinesi hanno utilizzato LLM per monitorare i post antigovernativi e diffamare i dissidenti, come Cai Xia, ex accademica critica del Partito Comunista Cinese.
Tradizionalmente, la censura cinese si basava su filtri di parole chiave che bloccavano termini come “massacro di Tiananmen” o “Xi Jinping”. Tuttavia, con l’introduzione degli LLM, il controllo diventa più sofisticato, in grado di individuare critiche più sottili e contestualizzate. Inoltre, questi sistemi possono migliorare nel tempo, apprendendo costantemente nuovi modi per individuare e sopprimere il dissenso.
L’articolo Cina, leak rivela l’uso di AI per la censura proviene da Futuratech.