OpenAI desmantela operaciones de influencia vinculadas a China, Rusia y otros países

Los autores de estas operaciones usaron herramientas de OpenAI para generar comentarios, redactar artículos o crear nombres o biografías falsos para cuentas de redes sociales

Por Aaron Pan
01 de junio de 2024 2:52 PM Actualizado: 01 de junio de 2024 2:52 PM

OpenAI anunció que desmanteló cinco operaciones de influencia de cuatro países que usaban sus herramientas de inteligencia artificial (IA) para manipular la opinión pública y moldear los resultados políticos en Internet.

La compañía declaró el 30 de mayo que estas operaciones encubiertas de influencia procedían de Rusia, China, Irán e Israel. Los responsables de estas operaciones usaron herramientas de OpenAI para generar comentarios, producir artículos o crear nombres o biografías falsos para cuentas de redes sociales en los últimos tres meses.

Según el informe, el contenido impulsado por estas operaciones se enfocó en múltiples temas de actualidad, incluidas las críticas al régimen chino por parte de disidentes chinos y gobiernos extranjeros, la política estadounidense y europea, la invasión rusa de Ucrania y el conflicto en Gaza.

Sin embargo, estas operaciones no lograron sus objetivos, aumentando significativamente la participación de su audiencia gracias a los servicios de la empresa, según afirma OpenAI en un comunicado.

La compañía encontró tendencias de estos participantes usando sus herramientas de IA, incluida la generación de contenido, mezclando lo viejo y lo nuevo entre materiales generados por IA y otros tipos de contenido, fingiendo el compromiso mediante la creación de respuestas para sus propias publicaciones sociales, y la mejora de la productividad como resumir las publicaciones en las redes sociales.

Red pro-Beijing

OpenAI declaró haber desmantelado una operación de una red de desinformación y propaganda pro- Beijing «Spamouflage» en China. La operación china usaba el modelo de IA de la empresa para obtener asesoramiento sobre actividades en redes sociales, investigar noticias y eventos de actualidad, y generar contenidos en chino, inglés, japonés y coreano.

Gran parte del contenido generado por la red Spamouflage son temas que alaban al régimen comunista chino, critican al gobierno de Estados Unidos y atacan a los disidentes chinos.

Estos contenidos se publicaron en diversas plataformas sociales, como X, Medium y Blogspot. OpenAI descubrió que, en 2023, la operación china generó artículos que afirmaban que Japón contaminaba el medio ambiente al verter aguas residuales de la central nuclear de Fukushima. El actor y activista por el Tíbet Richard Gere y el disidente chino Cai Xia también han sido objetivo de esta red.

La red también usó el modelo OpenAI para depurar código y generar contenidos para un sitio web en chino que ataca a disidentes chinos, llamándolos «traidores».

El año pasado, Facebook descubrió vínculos entre Spamouflage y las fuerzas de seguridad chinas, señalando que el grupo estuvo promoviendo campañas a favor de Beijing en las redes sociales desde 2018. La compañía eliminó alrededor de 7700 cuentas de Facebook y un centenar de páginas y cuentas de Instagram involucradas en operaciones de influencia que impulsaron narrativas positivas sobre Beijing y comentarios negativos sobre los Estados Unidos y críticos del régimen chino.

Operaciones de Rusia, Israel e Irán

OpenAI también encontró dos operaciones procedentes de Rusia, una de las cuales es Doppelganger. Esta operación usaba herramientas de OpenAI para generar comentarios en varios idiomas y publicarlos en X y 9GAG. Doppelganger también usó herramientas de IA para traducir artículos en inglés y francés y convertirlos en publicaciones de Facebook.

Según la empresa, la otra es una red rusa de la que no se había informado anteriormente, Bad Grammar, que opera principalmente en Telegram y se enfoca en Ucrania, Moldavia, Estados Unidos y los países bálticos. Esta red usó herramientas de OpenAI para depurar el código de un bot de Telegram que publica automáticamente información en esta plataforma.

Esta campaña generó breves comentarios políticos en ruso e inglés sobre la guerra entre Rusia y Ucrania y la política estadounidense. Además, la empresa matriz de ChatGPT detectó una operación desde Israel relacionada con la empresa de marketing político STOIC, con sede en Tel Aviv, y otra desde Irán.

Ambas utilizaban ChatGPT para generar artículos. Irán publicó el contenido en un sitio web relacionado con el actor de la amenaza iraní, mientras que Israel publicó sus comentarios en múltiples plataformas, incluidas X, Facebook e Instagram.

Por otra parte, el 29 de mayo, Facebook publicó un informe trimestral en el que revelaba que en su plataforma se habían publicado contenidos engañosos «probablemente generados por IA». El informe indicaba que Meta desarticuló seis operaciones encubiertas de influencia en el primer trimestre, entre ellas una red con sede en Irán y otra de la empresa israelí STOIC.

OpenAI acaparó la atención tecnológica mundial el año pasado cuando su consejo de administración despidió abruptamente a Sam Altman. La medida generó reacciones en todo el mundo, obligando al consejo a readmitirlo y provocando la dimisión de la mayoría de sus miembros y la formación de un nuevo consejo.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.