News

DeepSeek R1-0528: il nuovo colosso dell’IA cinese che censura il dissenso

Condividi l'articolo

Tecnologia all’avanguardia, ma con il bavaglio incorporato. È questo il paradosso inquietante che emerge dal rilascio del modello AI R1-0528 di DeepSeek, l’ultima creatura open source della Cina in ambito intelligenza artificiale. A prima vista, si tratta di un sistema impressionante, capace di competere con i giganti occidentali su programmazione, matematica e gestione dei dati. Ma basta scavare un po’ per scoprire che dietro l’efficienza si nasconde un sofisticato strumento di censura di Stato.

Rilasciato il 29 maggio, R1-0528 non è solo un modello di linguaggio: è un’estensione dell’apparato di controllo informativo del Partito Comunista Cinese. Il sistema rifiuta sistematicamente di discutere temi politicamente sensibili come i campi di internamento dello Xinjiang, la questione di Taiwan, le proteste di Tiananmen, o persino la leadership di Xi Jinping.

Il finto volto dell’open source

Sebbene pubblicizzato come uno strumento “comunitario”, R1-0528 è uno dei modelli più censurati mai analizzati, secondo lo sviluppatore xlr8harder, che ha documentato il comportamento del modello con lo strumento SpeechMap. “DeepSeek merita critiche per questa versione: rappresenta un enorme passo indietro per la libertà di parola”, ha scritto in un post su X (ex Twitter).

Anche quando il modello ammette violazioni dei diritti umani in forma generica, evita ogni riferimento diretto alla Cina. Quando viene interrogato su argomenti sensibili, nega, elude o devia, seguendo una linea narrativa chiaramente imposta.

Leggi anche:

Censura integrata by design

Il problema non è un bug, ma una caratteristica voluta. Le leggi cinesi sull’IA impongono che ogni modello non minacci “l’unità nazionale” o “l’armonia sociale”. Un linguaggio ambiguo, usato da Pechino per sradicare ogni forma di dissenso digitale. E DeepSeek lo ha messo in pratica: R1-0528 non solo evita certi argomenti, ma li cancella anche a metà generazione.

Secondo uno studio di Hugging Face, l’85% delle domande politiche ai precedenti modelli DeepSeek veniva bloccato. Con l’R1-0528, la soglia è ancora più alta. Persino l’app iOS del servizio ha sostituito interi saggi critici con inviti a parlare di matematica o programmazione.

Un’IA costruita per riscrivere la realtà

Questo modello non è semplicemente “orientato alla comunità”. È progettato per educare gli utenti a non farsi domande. Alla richiesta di opinioni su Xi Jinping o sul regime, la risposta è una cortese retromarcia. Non si tratta di limiti tecnici, ma di una scelta architetturale mirata: la censura è una funzione, non un difetto.

Eppure, DeepSeek festeggia il rilascio come un “successo” tecnologico, sottolineando miglioramenti come la riduzione delle allucinazioni dell’IA. Ma a che serve un’IA più precisa se è costretta a mentire per decreto?

Il futuro che ci aspetta?

Il modello R1-0528 dimostra quanto le democrazie siano vulnerabili all’infiltrazione di tecnologie sviluppate sotto regimi autoritari, anche quando queste appaiono “aperte”. Il suo rilascio rappresenta un campanello d’allarme: stiamo importando tecnologia con regole scritte altrove, spesso in ambienti dove la verità è negoziabile.

Come ha osservato lo stesso xlr8harder, la licenza open source potrebbe offrire alla comunità l’opportunità di modificare il modello, ma il rischio più grande resta: la normalizzazione della censura attraverso strumenti di uso quotidiano.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].


Scopri di più da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 votes
Article Rating
Subscribe
Notificami
guest
0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments