Desarrollos basados en IA podrían tener consecuencias “catastróficas” para EE.UU. y China: Experto

Por Andrew Thornebrooke
24 de Noviembre de 2021
Actualizado: 24 de Noviembre de 2021

La rápida evolución de las tecnologías de inteligencia artificial (IA) plantea un desafío para la seguridad internacional y podría ser utilizada por terceros para empujar a los rivales nucleares a un conflicto catastrófico, según un experto.

“La tecnología impulsada por la IA se está convirtiendo rápidamente en otra capacidad del conjunto de herramientas de terceros actores para emprender campañas de desinformación y engaño, que pueden afectar a potencias en competencia, [como] China y Estados Unidos”, dijo James Johnson, profesor de estudios estratégicos de la Universidad de Aberdeen.

Los grupos que aprovechan la inteligencia artificial, ya sean estados nacionales o no, tendrían un “efecto estratégico descomunal” en los próximos años, dijo Johnson durante un seminario web sobre la competencia entre China y Estados Unidos en materia de IA organizado por el Instituto Internacional de Estudios Estratégicos.

Dijo que le preocupaba que los actores no estatales podrían aprovechar las tecnologías críticas y emergentes contra las potencias nucleares, lo que podría obstaculizar su capacidad para realizar operaciones militares o provocar un conflicto nuclear involuntario.

“En teoría, un actor no estatal podría apuntar a sistemas de mando y control nucleares, satélites de alerta temprana y radares, con armas cibernéticas mejoradas por IA sin la necesidad de ningún ataque cinético o físico, y mucho menos la posesión de armas nucleares”, dijo Johnson.

Johnson dijo que la IA reducirá drásticamente la capacidad de respuesta a los llamados ataques de falsa bandera, permitiendo efectivamente a pequeños grupos con recursos limitados participar en ataques diseñados para provocar a las naciones.

Un grupo de piratas informáticos, por ejemplo, podría engañar a los líderes y/o sistemas estadounidenses o chinos haciéndoles creer que están siendo atacados, desencadenando así una represalia y engañando efectivamente a una nación para que ataque a otra.

Los “aumentos masivos” en la velocidad de la toma de decisiones de las máquinas que superan la comprensión humana, así como la adopción generalizada de sistemas de inteligencia artificial, dijo Johnson, podrían conducir aún más a una pérdida de capacidad para controlar o contener tales eventos.

“Imagínese, por ejemplo, si la crisis de los misiles cubanos se truncara de 13 días a cuestión de horas, minutos o incluso nanosegundos”, dijo Johnson.

A esta amenaza contribuye, según Johnson, el hecho de que China, Rusia y Estados Unidos mantengan algunas de sus fuerzas nucleares en la llamada postura de “lanzamiento por aviso”. Esto significa que estas naciones lanzarán ataques nucleares de represalia cuando reciban un aviso de que están siendo atacados con armas nucleares, en lugar de esperar a que se produzca una detonación para confirmar que realmente se ha producido un ataque.

Si un grupo de piratas informáticos activara uno de los sistemas de alerta nuclear de estas naciones existe una posibilidad decente de que se desencadene un ataque nuclear real.

Johnson dijo que terceros que empleen tales tácticas “podrían acercar a dos o más rivales con armas nucleares al borde del abismo” y serían una fuerza desestabilizadora en los años venideros.

“Esto se está convirtiendo rápidamente en un escenario plausible”, dijo Johnson.

Johnson también explicó que las operaciones que aparentemente no están conectadas al sistema de alerta nuclear aún podrían causar estragos en el liderazgo y en las operaciones militares y civiles. Es probable que aumenten los videos deepfake y otras operaciones de desinformación diseñadas para promover errores de cálculo y conceptos erróneos entre los líderes nacionales, dijo, y podrían traer las mismas consecuencias.

Tal interferencia con el panorama de la información durante una crisis entre dos potencias nucleares, en la que las comunicaciones ya están comprometidas y la toma de decisiones comprimida, podría resultar en el peor de los casos.

“Las consecuencias de este tipo de operaciones de información obviamente podrían ser catastróficas”, dijo Johnson.

Para ello, Johnson dijo que el error humano y el error de la máquina probablemente se combinen para formar resultados inciertos e inesperados, a medida que surjan y se desplieguen las nuevas tecnologías.

“En resumen, el juicio y el control humanos absolutos, junto con la fragilidad inherente o la falta de contexto o de sentido común de los algoritmos de las máquinas existentes, el riesgo de accidentes desestabilizadores y de falsas alarmas va a aumentar”, dijo Johnson.

Para evitar un desastre absoluto, Johnson dijo que las naciones deben actuar ahora y tomar medidas proactivas para protegerse contra tales ataques y errores de cálculo. Sugirió que se realicen mejoras en el mando y control, que se implementen redundancias en los protocolos nucleares y que se desarrollen nuevas normas entre aliados y adversarios con respecto al uso y despliegue de la IA.

“Ahora es el momento de una intervención positiva antes de que sea demasiado tarde”, dijo Johnson.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Done a The Epoch Times

Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.

TE RECOMENDAMOS