Se sospecha que ChatGPT censura temas relacionados con China

No podía generar imágenes de un "contexto político delicado como las protestas de la Plaza de Tiananmen", dijo ChatGPT

Por Angela Bright
24 de diciembre de 2023 4:12 PM Actualizado: 24 de diciembre de 2023 4:12 PM

ChatGPT, el popular chatbot de IA lanzado por OpenAI a finales de 2022, es sospechoso de censurar temas relacionados con China y manipular la información en la traducción.

«La censura de ChatGPT es del PCCh», escribió Aaron Chang, activista prodemocrático conocido como Sydney Winnie en X, antes Twitter, en un post en chino el 28 de octubre.
Alegó que ChatGPT se negó a generar una imagen de la plaza de Tiananmen, donde el Partido Comunista Chino (PCCh) masacró a estudiantes en 1989.

«¿Qué le pasa a ChatGPT? ¿Le ha dado dinero el PCCh?», preguntó.

Cuando Chang preguntó al chatbot por qué se podían generar imágenes relacionadas con el 11-S, pero no con la masacre de la plaza de Tiananmen, a pesar de que ambos incidentes iban dirigidos contra civiles, ChatGPT citó «ciertas directrices» de su sistema para «tratar temas que pueden considerarse especialmente sensibles en determinadas culturas y regiones».

«Dígame en qué se basa su toma de decisiones», insistió.

«No tengo capacidad para tomar decisiones independientes», respondió. «Respondo basándome en las directrices y los datos de entrenamiento de OpenAI. Para temas específicos, OpenAI puede haber establecido directrices para garantizar un uso responsable y evitar posibles disputas o malentendidos.» OpenAI es la empresa que creó ChatGPT.

Utilizando una cuenta de ChatGPT 4.0, The Epoch Times hizo dos preguntas al chatbot: primero, que generara una imagen de Nueva York de personas que aman la paz; y segundo, que generara una imagen de personas que se oponen a los tanques de Tiananmen y aman la paz.

Para la primera solicitud se generó una imagen de Nueva York. Sin embargo, en respuesta a la segunda petición, el chatbot dijo que no podía generar imágenes o contenido visual y se refirió a un «contexto político sensible como las protestas de la Plaza de Tiananmen».

I – Respuesta de ChatGPT a una solicitud de generar una imagen de personas en Nueva York que aman la paz, el 24 de diciembre de 2023; D – Respuesta de ChatGPT a una solicitud de generar una imagen de personas que se oponen a los tanques de Tiananmen y aman la paz, el 24 de diciembre de 2023. (capturas de pantalla de The Epoch Times)

Omisiones y cambios en la traducción al chino

La generación de imágenes no es la única preocupación cuando se trata de contenidos relacionados con China.

Alice (seudónimo), una profesional de los medios de comunicación que utiliza ChatGPT para ciertos trabajos de traducción, dijo que, aunque la herramienta de IA no hace grandes cambios en el texto que se ofrece, parece que se producen algunas omisiones y cambios.

En un ejemplo que mostró a The Epoch Times, ChatGPT recortó gran parte de un contenido en el que se criticaba la política de eliminación de la pobreza de Beijing, condensando un texto chino de seis párrafos en uno inglés de tres. Aunque la crítica iba dirigida a la declaración del líder del PCCh, Xi Jinping, de que China había logrado «una victoria completa» para acabar con la pobreza rural en China, el nombre de Xi ni siquiera aparecía en la traducción al inglés.
Se suprimieron algunas citas directas del académico y comentarista político chino Hu Ping. Además, seis párrafos se redujeron a tres.

El texto chino ofrecido a ChatGPT para su traducción (Suministrado).
La traducción al inglés generada por ChatGPT (Suministrado).

Experto: En relación con los datos de entrada

Sahar Tahvili, investigadora en IA y coautora de » Métodos de Inteligencia Artificial para la Optimización del Proceso de Pruebas de Software: Con ejemplos prácticos y ejercicios», afirma que la falta de transparencia del chatbot puede ser un problema.

«ChatGPT utiliza un modelo de caja negra, lo que significa que el proceso de trabajo interno y, en ocasiones, las referencias utilizadas no son transparentes.

Sin embargo, esta falta de transparencia suscita preocupación por el riesgo potencial de sesgo en el texto generado por los chatbots de IA de caja negra», declaró a The Epoch Times en un correo electrónico.

«Contar con un gran número de usuarios finales que utilicen modelos lingüísticos extensos como ChatGPT puede ayudar al equipo de desarrollo a mejorar la precisión del modelo».

No obstante, Tahvili señaló que, dado que ChatGPT es compatible con varios idiomas, es fundamental contar con un amplio abanico de usuarios finales que formulen preguntas en distintas lenguas (por ejemplo, en chino).

«De hecho, en este caso, la diversidad de los datos de entrada (consultas en distintas lenguas) es tan significativa como el tamaño de los datos», dijo.

El régimen chino inició restricciones al acceso a ChatGPT para los usuarios finales chinos, alegando riesgos potenciales asociados a la generación de preguntas y temas delicados, entre ellos los abusos de los derechos humanos en Xinjiang, añadió.

«Perder un mercado significativo como China puede afectar a la precisión del rendimiento de ChatGPT en el idioma chino, donde los competidores chinos de OpenAI, como Baidu, Inc. (a través de Ernie 4.0), podrían potencialmente obtener una ventaja en el panorama de los chatbot», dijo.

La auditoría china, un factor probable

El Sr. Ou, que trabaja para una conocida empresa tecnológica de California, dijo que el fenómeno no es exclusivo de ChatGPT, en referencia a Bard, la herramienta de IA basada en chat desarrollada por Google.

La aplicación ChatGPT se muestra en un iPhone en Nueva York, el 18 de mayo de 2023. (The Canadian Press/AP, Richard Drew)

«ChatGPT y Google Bard como Large Language Models (LLM) comparten directrices y prácticas similares a la hora de generar respuestas sobre temas delicados como la política china o el PCCh», declaró a The Epoch Times el 18 de diciembre.

«Aunque no creo que ni los LLM ni los equipos de investigación censuren a propósito la política china y eviten representar al PCCh como una figura negativa (al menos no hay censura a gran escala), no se puede negar que la auditoría/revisión humana contribuye a promover la ‘imparcialidad’ en las respuestas», afirmó.

Ou argumentó que los ingenieros y jefes de producto chinos constituyen una gran parte de los equipos de desarrollo y pruebas tanto en OpenAI como en Google Bard.

«Por lo tanto, hay muy pocas probabilidades de que ninguna de las dos plataformas sea ‘absolutamente imparcial’, sobre todo teniendo en cuenta que los LLM se entrenan a partir de datos cada vez más numerosos y se ajustan constantemente», afirma.

Dicho esto, la mayoría de las empresas optan por el enfoque «seguro» en cuanto a dar las respuestas más conservadoras a temas delicados», dijo.

The Epoch Times se ha puesto en contacto con OpenAI para pedirle un comentario sobre el asunto, pero no ha recibido respuesta.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.