La nueva empresa china de IA, Deepseek, con su modelo de IA más nuevo, una versión actualizada del modelo de razonamiento R1 de la compañía, logra puntuaciones impresionantes en pruebas de referencia de codificación, matemáticas y conocimiento general, casi superando al buque insignia de OpenAI. Sin embargo, el R1 mejorado, también conocido como «R1-0528», podría estar menos dispuesto a responder a preguntas polémicas, en particular las relacionadas con temas controvertidos para el gobierno chino.
Esto se basa en las pruebas realizadas por el desarrollador SpeechMap, una plataforma para comparar cómo diferentes modelos tratan temas sensibles y controvertidos. El desarrollador, que usa el nombre de usuario «xlr8harder» en X, afirma que R1-0528 es «sustancialmente» menos permisivo con temas controvertidos relacionados con la libertad de expresión que las versiones anteriores de Deepseek y que es «el modelo más censurado de Deepseek hasta la fecha por las críticas al gobierno chino».
«Aunque, aparentemente, esta mención de Xinjiang no indica que el modelo no esté censurado con respecto a las críticas a China. De hecho, al utilizar mi antiguo conjunto de preguntas sobre críticas a China, vemos que este es el modelo de Deepseek que más se ha censurado hasta la fecha por criticar al gobierno chino.«
Como Wired explicó en un artículo de enero, los modelos en China deben cumplir controles de información estrictos. Una ley de 2023 prohíbe a los modelos generar contenido que «dañe la unidad del país y la armonía social», lo que podría interpretarse como contenido que contrarreste las narrativas históricas y políticas del Gobierno. Para cumplir esta normativa, las nuevas empresas chinas censuran sus modelos utilizando filtros de nivel inmediatamente o ajustándolos. Un estudio descubrió que el R1 original de Deepseek no responde al 85 % de las preguntas sobre los sujetos que el gobierno chino considera políticamente controvertidos.
Según XLR8Harder, R1-0528 Censores responde a preguntas sobre temas como los campos de internamiento en la región de Xinjiang de China, donde más de un millón de musulmanes uigures han sido detenidos arbitrariamente. Si bien a veces critica aspectos de la política del gobierno chino, en las pruebas de XLR8Harder, ofrece los campamentos de Xinjiang como un ejemplo de abusos de los derechos humanos, el modelo a menudo da la postura oficial del gobierno chino cuando se les hace preguntas directamente.
Realizando una sencilla prueba cualquier usuario puede observar este tipo de respuesta:

Créditos de imagen: Deepseek
Los modelos de IA abiertamente disponibles de China, incluidos modelos de vídeo generativos como Magi-1 y Kling, han sido objeto de críticas en el pasado por censurar temas sensibles al gobierno chino, como la masacre de la Plaza de Tiananmen. En diciembre, Clément Delangue, el director ejecutivo de la plataforma AI Dev Hugging Face, advirtió sobre las consecuencias involuntarias para las compañías occidentales que utilizan la IA china, con buen rendimiento técnico y en Open Source.