Un nuevo informe de RAND revela que el ejército chino adoptó el uso de la inteligencia artificial (IA) para promover campañas de influencia en el extranjero.
Según el estudio, publicado el 1 de octubre, Estados Unidos y otros países «deberían prepararse para esta manipulación de las redes sociales, impulsada por la IA» adoptando medidas de reducción de riesgos, promoviendo la alfabetización mediática y confianza de los gobiernos, aumentando la información pública e incrementando la coordinación diplomática.
Se trata del primer informe centrado en la planificación y las estrategias de las campañas de influencia del Partido Comunista Chino (PCCh) en las redes sociales.
Los investigadores indagaron sobre Li Bicheng, un investigador afiliado al ejército chino y destacado experto en manipulación masiva de las redes sociales, que se cree que es responsable, al menos en parte, de la gestión de estas campañas.
El estudio también extrajo pruebas de más de 220 artículos en chino de revistas académicas y más de 20 artículos en inglés de conferencias internacionales escritos por Li.
Entre las principales conclusiones se encuentran que el PCCh comenzó a desarrollar capacidades de manipulación de las redes sociales en la década de 2010, que está «claramente interesado en aprovechar la IA» para estas campañas, que los investigadores militares chinos están llevando a cabo un trabajo de vanguardia y que el PCCh está bien posicionado para ejecutar estas campañas de manipulación a gran escala.
Los investigadores señalan que las actividades de IA del PCCh son opuestas a las declaraciones públicas del régimen, en las que los funcionarios han manifestado abiertamente su oposición al uso de IA para la desinformación.
Adopción de las redes sociales
La respuesta inicial del PCCh a los levantamientos impulsados por las redes sociales, como en la Primavera Árabe, fue tomar medidas enérgicas contra esta tecnología, de acuerdo a los investigadores.
Pero también se interesó por lo que consideraba usos occidentales de la «guerra psicológica online», y en 2013 publicó documentos de planificación para que el PCCh «reforzara las capacidades de comunicación internacional y construyera el poder del discurso exterior».
El líder del PCCh, Xi Jinping, dio un discurso ese año llamando a «lanzar una lucha de opinión pública» y con el objetivo de «construir un fuerte ejército cibernético».
Xi afirmó que China es víctima de las acusaciones procedentes de Occidente y dijo que las represalias estaban justificadas.
«Debemos llevar a cabo una propaganda exterior meticulosa y adecuada» e innovar, dijo Xi.
En los años siguientes se crearon nuevos departamentos centrados en la propaganda en línea en varios organismos del PCCh, así como una mayor colaboración entre departamentos en las campañas de influencia exterior.
En 2017-2018, los esfuerzos a gran escala patrocinados por el Estado se dirigían activamente a grupos extranjeros. Los investigadores creen que la campaña de desinformación «Spamouflage,» que fue identificada como una iniciativa dirigida por el PCCh en 2023, comenzó durante ese período. Taiwán también acusó en 2018 a los militares chinos de manipulación de las redes sociales para interferir en las elecciones de Taiwán, la primera acusación pública de este tipo.
Las campañas de desinformación en las redes sociales «se dispararon» en 2019, según el informe, y se utilizaron ampliamente durante las protestas de Hong Kong, y luego, en la pandemia de COVID-19 y, más tarde, en las elecciones de mitad de período de Estados Unidos en 2022.
Campo de pruebas de la IA
En 2023, Li Bicheng escribió en un estudio que el posteo artificial en las redes sociales seguía siendo ineficaz, y que el régimen seguía necesitando recurrir a la mano de obra humana para estas iniciativas. Él estaba investigando formas de utilizar la IA para reemplazar a los usuarios de las redes sociales del «ejército de 50 centavos», creyendo que esto ayudaría al PCCh a lograr «la ventaja de la opinión pública en las futuras guerras informáticas».
Li expuso un proceso de seis pasos: descubrir y adquirir información clave; preparar y seleccionar los soportes mediáticos apropiados; producir contenidos a medida para cada una de las plataformas en línea objetivo; seleccionar el momento, el modo de entrega y los pasos apropiados; reforzar la difusión a través de múltiples fuentes formando «puntos críticos»; y seguir moldeando el entorno y ampliando la influencia.
Su investigación de los últimos años ha supuesto un amplio esfuerzo por reunir diversas tecnologías que pudieran automatizar estos diversos pasos, según los investigadores, para crear posteos inteligentes que puedan desplegarse automáticamente en las redes sociales de forma más eficaz, y más personalizada para el público objetivo.
Los investigadores patrocinados por el PCCh también están desarrollando un entorno simulado, o «superred», para poner a prueba estas capacidades de la IA y ver si el contenido generado por la IA tiene el efecto deseado de influir en la opinión pública en la dirección deseada.
«El entorno simulado aprovecha los datos existentes del mundo real, la ciencia cognitiva y el modelado de redes», dice el informe.
«Sostenemos que la actual tecnología LLM [large language mode] es suficiente para llevar a cabo el sistema automatizado de orientación de la opinión pública propuesto por Li. Es probable que China tenga la capacidad de hacer operativo el sistema».
Si el PCCh ya ha empezado a trabajar en las tecnologías analizadas en los estudios de 2023, estaría listo y capacitado para orientar las próximas elecciones presidenciales, afirmaron los investigadores.
Algunas pruebas de campañas de desinformación generadas por IA y vinculadas al PCCh ya aparecieron en 2023, según el informe, como las imágenes generadas por IA del incendio forestal de Hawái y una campaña de influencia en YouTube que impulsó narrativas prochinas y antiestadounidenses en temas como una «guerra tecnológica entre Estados Unidos y China» y geopolítica.
El grupo de expertos Australian Strategic Policy Institute concluyó que la campaña, que acumuló unos 120 millones de visitas en YouTube hasta diciembre de 2023, fue «una de las operaciones de influencia relacionadas con China de mayor éxito jamás presenciadas en las redes sociales».
Los investigadores de RAND prevén un aumento de los bots de redes sociales que hacen uso de la IA generativa en el futuro y recomendaron a las autoridades estadounidenses y a las plataformas de redes sociales que reduzcan el riesgo invirtiendo en formas de detectar, y exigir el etiquetado, de los contenidos generados por IA.
Los investigadores señalaron que las conclusiones del estudio no reflejan la magnitud de las operaciones de influencia digital del PCCh.
«Es importante señalar que la manipulación de las redes sociales es solo una de las muchas herramientas de las operaciones de influencia exterior del PCCh y que el ejército chino es solo uno de los muchos actores que probablemente llevan a cabo estas actividades en nombre del Partido-Estado», dice el informe.
Únase a nuestro canal de Telegram para recibir las últimas
noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.