
Un comentario sobre la pobreza en las zonas rurales chinas. Un reportaje sobre la corrupción dentro del Partido Comunista. Un llamado desesperado contra policías que extorsionan a empresarios.
Estos son apenas algunos de los 133.000 ejemplos utilizados para entrenar un sofisticado modelo de inteligencia artificial, desarrollado para identificar y censurar automáticamente cualquier contenido que el gobierno de China considere sensible.
Una base de datos filtrada, analizada por TechCrunch, revela cómo el régimen chino ha incorporado inteligencia artificial para fortalecer su ya férreo sistema de control de la información. Más allá de los temas prohibidos tradicionales, como la masacre de la Plaza de Tiananmen, esta tecnología amplía su alcance y sofisticación.
El sistema parece estar diseñado principalmente para vigilar y censurar a los ciudadanos chinos en línea, aunque también podría aplicarse para reforzar la censura en los modelos de inteligencia artificial desarrollados en China.
Xiao Qiang, investigador de la Universidad de California en Berkeley y especialista en censura china, afirmó que esta filtración es una “prueba irrefutable” de que el gobierno chino busca utilizar la IA para perfeccionar sus mecanismos de represión.
“A diferencia de los métodos de censura tradicionales, que dependen de filtros de palabras clave y supervisión manual, un modelo de lenguaje de gran tamaño (LLM) entrenado para este propósito aumentaría exponencialmente la capacidad de control del Estado sobre la información”, explicó Qiang a TechCrunch.
Este descubrimiento se suma a la creciente evidencia de que los gobiernos autoritarios están adoptando la inteligencia artificial para fortalecer su control sobre la población. En febrero, OpenAI reveló que entidades chinas estaban utilizando modelos de IA para rastrear publicaciones antigubernamentales y desacreditar a disidentes.
En respuesta a la investigación, la Embajada de China en Washington aseguró que se opone a los “ataques y calumnias infundadas” y defendió su compromiso con el desarrollo de una IA ética.
El conjunto de datos fue descubierto por el investigador de seguridad NetAskari, quien lo halló en una base de datos de Elasticsearch alojada en un servidor de Baidu sin las protecciones adecuadas. No está claro qué entidad específica creó el sistema, pero los registros indican que la información es reciente, con actualizaciones hasta diciembre de 2024.

El sistema funciona de manera similar a ChatGPT, pero con un objetivo completamente distinto: detectar y marcar automáticamente contenido considerado problemático en el ámbito político, social y militar. Cualquier referencia a escándalos de contaminación, fraudes financieros o conflictos laborales se clasifica como una “prioridad máxima” y se censura de inmediato.
Incluso las sátiras políticas son blanco del sistema. Por ejemplo, si un usuario usa una analogía histórica para criticar a una figura del presente, el contenido es eliminado. También se prohíben debates sobre la política de Taiwán, los movimientos militares y los ejercicios bélicos.
Entre los 133.000 ejemplos censurados, TechCrunch identificó varios temas recurrentes: denuncias de corrupción policial, pobreza rural extrema y la expulsión de funcionarios por el Partido Comunista Chino (PCCh). Taiwán es una preocupación central del gobierno: su nombre aparece más de 15.000 veces en la base de datos censurada.
Además, se apunta a la disidencia sutil. Un ejemplo incluido en el sistema es un proverbio chino: “Cuando el árbol cae, los monos se dispersan”, que alude a la fugacidad del poder. En China, donde las transiciones de liderazgo son controladas con mano de hierro, hasta las metáforas pueden ser vistas como una amenaza.
Si bien no se conoce con exactitud quién desarrolló el sistema, en la base de datos se menciona que su propósito es el “trabajo de opinión pública”, un término utilizado por la Administración del Ciberespacio de China (CAC) para referirse a la censura y propaganda digital.
Michael Caster, experto en derechos humanos de la organización Article 19, explicó que esta estrategia busca proteger las narrativas oficiales y eliminar cualquier punto de vista alternativo. De hecho, el propio presidente Xi Jinping ha descrito a internet como la “primera línea” de la batalla ideológica del Partido Comunista.
Esta filtración deja en evidencia la sofisticación con la que China está utilizando la inteligencia artificial para reforzar su control sobre la población.
Recientemente, OpenAI descubrió que un actor no identificado, probablemente vinculado a China, utilizó IA generativa para monitorear conversaciones en redes sociales y rastrear protestas en defensa de los derechos humanos. También se detectó su uso para generar comentarios en contra de disidentes como Cai Xia.
Históricamente, la censura china se ha basado en algoritmos más rudimentarios, que bloqueaban términos específicos como “masacre de Tiananmen” o “Xi Jinping”. Sin embargo, con la incorporación de la IA, el régimen puede detectar incluso críticas implícitas y mejorar su capacidad de censura a gran escala.
“Es fundamental comprender cómo la censura basada en IA está evolucionando, permitiendo que el control del discurso público sea cada vez más preciso y eficiente”, concluyó Xiao Qiang.