Según varios expertos, las armas de última generación impulsadas por inteligencia artificial se están convirtiendo en un peligro para la seguridad mundial, especialmente en manos del Partido Comunista Chino (PCCh).
Ansioso por superar militarmente a Estados Unidos, es poco probable que el PCCh preste atención a las salvaguardias en torno a las tecnologías letales de IA, que son cada vez más peligrosas por derecho propio, han argumentado los expertos. La naturaleza de la tecnología es propensa a alimentar algunas de las peores tendencias del régimen y de la psique humana en general, advirtieron.
«Las implicaciones son bastante dramáticas. Y pueden ser iguales a la revolución nuclear», afirmó Bradley Thayer, investigador principal del Center for Security Policy, experto en evaluación estratégica de China y colaborador de The Epoch Times.
Robots asesinos
Según Alexander De Ridder, desarrollador de IA y cofundador de Ink, una empresa de marketing de IA, el desarrollo de armas autónomas impulsadas por IA avanza por desgracia con rapidez.
«Se están volviendo rápidamente más eficientes y rápidamente más eficaces», dijo a The Epoch Times, añadiendo que «no están en el punto en el que puedan reemplazar a los humanos».
Drones, tanques, barcos y submarinos autónomos se han convertido en una realidad junto con modalidades más exóticas, como los perros robot cuadrúpedos, ya armados con ametralladoras en China.
Incluso se están fabricando robots humanoides dotados de inteligencia artificial, propios de la ciencia ficción de terror. Es cierto que siguen siendo bastante torpes en el mundo real, pero no lo serán por mucho tiempo, sugiere De Ridder.
«Las capacidades de este tipo de robots avanzan rápidamente».
Una vez que alcancen una utilidad y fiabilidad comercializables, es probable que China vuelque su poderío manufacturero en su producción en masa, según De Ridder.
«El mercado se inundará de robots humanoides, y luego dependerá de la programación cómo se utilicen».
Eso significaría también el uso militar.
«Es algo inevitable», afirma.
Estas máquinas dotadas de IA son muy eficaces en el procesamiento de imágenes para discernir objetos: por ejemplo, para detectar a un humano con sus sensores ópticos, explicó James Qiu, experto en IA, fundador del GIT Research Institute y exdirector de tecnología de FileMaker.
Eso hace que los robots de IA sean muy buenos seleccionando objetivos.
«Es una máquina de matar muy eficaz», afirma.
Generales de IA
A un nivel más amplio, varias naciones están trabajando en una IA capaz de informar y coordinar las decisiones en el campo de batalla: un general electrónico, según Jason Ma, experto en IA y director de investigación de datos en una multinacional de la lista Fortune 500. Jason Ma no quiso revelar el nombre de su empresa. No quiso mencionar el nombre de la empresa para evitar dar la impresión de que hablaba en su nombre.
El Ejército Popular de Liberación (EPL), el ejército del PCCh, realizó recientemente ejercicios de combate en los que se puso directamente al mando a una IA.
El ejército estadounidense también tiene proyectos en este campo, señaló Ma.
«Es un tema de investigación y desarrollo muy activo».
La necesidad es obvia, explicó. Las decisiones en el campo de batalla se basan en una cantidad asombrosa de datos, desde el contexto histórico y la inteligencia del pasado hasta los datos de satélites en tiempo casi real, pasando por la información recibida milisegundo a milisegundo de cada cámara, micrófono y cualquier otro sensor del campo de batalla.
Para el ser humano es «muy difícil» procesar flujos de datos tan dispares y voluminosos.
«Cuanto más compleja es la guerra, más importante es la forma de integrar y resumir rápidamente toda esta información para tomar la decisión correcta en cuestión de segundos, o incluso de subsegundos».
Desestabilización
Los expertos coincidieron en que las armas de IA ya están redefiniendo la guerra. Pero las consecuencias son mucho más amplias. La tecnología está haciendo que el mundo sea cada vez más volátil, afirmó Thayer.
En el nivel más rudimentario, la capacidad de apuntar de las armas con IA facilitará probablemente el derribo de misiles balísticos intercontinentales, la detección y destrucción de submarinos y el derribo de bombarderos de largo alcance. Eso podría neutralizar las capacidades de la tríada nuclear estadounidense, permitiendo a los adversarios «escalar más allá del nivel nuclear» con impunidad, sugirió.
«La IA afectaría a cada uno de esos componentes, que desarrollamos y entendimos durante la Guerra Fría como absolutamente esenciales para una relación de disuasión nuclear estable», dijo.
«Durante la Guerra Fría, se entendía que la guerra convencional entre potencias nucleares no era factible. … La IA está socavando eso, porque introduce la posibilidad de un conflicto convencional entre dos estados nucleares».
Si se siguen desarrollando sistemas de armas potenciados por IA sin restricciones, la volatilidad no hará más que empeorar, predijo.
«La IA está afectando enormemente al campo de batalla, pero aún no es determinante», afirmó.
Si las capacidades de la IA alcanzan «el efecto de una guerra nuclear sin usar armas nucleares», eso sentaría al mundo en un barril de pólvora, dijo.
«Si eso es posible, y es bastante probable que lo sea, entonces es una situación extremadamente peligrosa e increíblemente desestabilizadora porque obliga a alguien que está en el extremo receptor de un ataque a ir primero, no a soportar el ataque, sino a agredir».
En el léxico bélico, el concepto se denomina «limitación de daños», dijo.
«No quieres que el tipo vaya primero, porque vas a salir malherido. Así que tú vas primero. Y eso va a desestabilizar enormemente la política internacional».
La preocupación no se refiere solo a los robots asesinos o los drones, sino también a diversas armas de IA no convencionales. Una IA, por ejemplo, podría desarrollarse para encontrar vulnerabilidades en infraestructuras críticas como la red eléctrica o los sistemas de suministro de agua.
Controlar la proliferación de este tipo de tecnologías parece especialmente desalentador. La IA no es más que un programa informático. Incluso los modelos más grandes caben en un disco duro normal y pueden ejecutarse en una pequeña granja de servidores. Armas de IA sencillas pero cada vez más letales, como los drones asesinos, pueden enviarse por piezas sin que salten las alarmas.
«Los incentivos para la proliferación vertical y horizontal son enormes, y es fácil hacerlo», afirmó Thayer.
De Ridder señaló que el Estado chino quiere ser visto como responsable en la escena mundial.
Pero eso no ha impedido que el PCCh suministre armas o ayude a programas de armamento de otros regímenes y grupos que no tienen una reputación tan limitada, han señalado otros expertos.
No sería una sorpresa que el PCCh suministrara armas autónomas a grupos terroristas que luego atarían al ejército estadounidense en interminables conflictos asimétricos. El PCCh podría incluso mantener las distancias y limitarse a suministrar las piezas, dejando que sus delegados ensamblen los drones, del mismo modo que los proveedores chinos suministran precursores de fentanilo a los cárteles mexicanos y los dejan fabricar, enviar y vender las drogas.
El PCCh, por ejemplo, tiene un largo historial de ayuda a los programas de armamento iraníes. Irán, a su vez, suministra armas a un panóptico de grupos terroristas en la región.
«Habría pocos desincentivos para que Irán hiciera esto», dijo el Sr. Thayer.
Humano en el circuito
En general se acepta, al menos en Estados Unidos y entre sus aliados, que la salvaguarda más importante contra las armas de IA que causan estragos imprevistos es mantener a un ser humano en el control de las decisiones importantes, en particular el uso de la fuerza letal.
«Bajo ninguna circunstancia debe permitirse que ninguna máquina, de forma autónoma e independiente, acabe nunca con una vida humana», afirmó De Ridder.
El principio se resume comúnmente en la frase «humano en el circuito».
«Un humano tiene conciencia y necesita despertarse por la mañana con remordimientos y con las consecuencias de lo que ha hecho, para poder aprender de ello y no repetir atrocidades», dijo De Ridder.
Algunos de los expertos señalaron, sin embargo, que el principio ya está siendo erosionado por la naturaleza del combate transformado por las capacidades de la IA.
En la guerra de Ucrania, por ejemplo, el ejército ucraniano tuvo que dotar a sus drones de cierta autonomía para guiarlos hasta sus objetivos, ya que sus comunicaciones con los operadores humanos estaban siendo interferidas por el ejército ruso.
Según Ma, estos drones solo funcionan con IA más sencilla, dada la limitada potencia del ordenador de a bordo. Pero esto podría cambiar pronto, ya que tanto los modelos de IA como los ordenadores son cada vez más rápidos y eficientes.
Apple ya está trabajando en una IA que podría funcionar en un teléfono, dice Ma.
«Es muy probable que en el futuro se introduzca en un pequeño chip».
Además, en un conflicto de gran envergadura en el que se desplieguen cientos o quizá miles de drones a la vez, podrán compartir potencia de cálculo para realizar tareas autónomas mucho más complejas.
«Todo es posible», afirmó. «Se ha llegado a un punto en el que no es ciencia ficción; solo [es cuestión de] si hay un grupo de personas que quiera dedicar tiempo a trabajar en ello. Es tecnología tangible».
Eliminar el control humano por necesidad no es un concepto nuevo, según James Fanell, exoficial de inteligencia naval y experto en China.
Puso el ejemplo del Sistema de Combate Aegis desplegado en los cruceros y destructores de misiles guiados estadounidenses. Detecta y rastrea automáticamente objetivos aéreos y lanza misiles para derribarlos. Normalmente, un operador humano controla los lanzamientos de misiles, pero también hay una forma de cambiarlo al modo automático, como cuando hay demasiados objetivos para que el operador humano los rastree. El sistema identifica y destruye los objetivos por sí solo, explica Fanell.
En la guerra de drones masiva, en la que una IA coordina miles de drones en un ataque sistemático, el bando que dé a su IA autonomía para disparar obtendrá una importante ventaja de velocidad sobre el bando en el que los humanos deban aprobar cada disparo.
«A nivel de disparo individual, las personas tienen que renunciar al control porque realmente no pueden tomar todas las decisiones tan rápidamente», dijo Ma.
De Ridder señaló que un dron que disparara a otro dron por su cuenta sería moralmente aceptable. Pero eso podría desencadenar una gran cantidad de disparos autónomos en un campo de batalla en el que también puede haber humanos, lo que abriría la puerta a un sinfín de víctimas colaterales».
Sin reglas
La mayoría de los expertos coincidieron en que, sean cuales sean las salvaguardias de la IA, es poco probable que la PCCh las respete.
«Realmente no veo que haya ningún límite sobre el que China deba ser prudente», dijo Ma. «Todo lo que sea posible, lo harán».
«La idea de que China se limitaría en su uso, no la veo», dijo Fanell.
«Van a intentar aprovecharlo y ser capaces de explotarlo más rápido que nosotros».
El principio humano en el circuito podría simplemente reinterpretarse para aplicarse a «un nivel de batalla más grande y completo» en lugar de «el nivel de disparo individual», dijo Ma.
Pero una vez que se acepta que la IA puede empezar a disparar por su cuenta en algunas circunstancias, el principio del control humano se vuelve maleable, dijo Fanell.
«Si se está dispuesto a aceptar eso en un sentido táctico, ¿quién puede decir que no se llevará hasta el nivel más alto de la guerra?», dijo.
«Es la evolución natural de una tecnología como ésta, y no estoy seguro de qué podemos hacer para detenerla. No es que vayamos a tener un código ético que diga que en la guerra hay que atenerse a las reglas de boxeo del Marqués de Queensberry. Eso no va a ocurrir».
Incluso si se mantiene a los humanos en el control de las decisiones macro, como la de lanzar o no una misión concreta, la IA puede dominar fácilmente el proceso de toma de decisiones, coincidieron varios expertos.
El peligro no sería una IA que funcionara mal, sino una que funcionara tan bien que infundiera confianza en los operadores humanos.
De Ridder se mostró escéptico ante los pronósticos sobre una IA superinteligente que supere ampliamente a los humanos. Reconoció, sin embargo, que la IA supera obviamente a los humanos en algunos aspectos, sobre todo en velocidad. Puede procesar montañas de datos y sacar conclusiones casi de inmediato.
Según Ma y Qiu, es prácticamente imposible averiguar cómo llega exactamente una IA a sus conclusiones.
De Ridder afirma que él y otros están trabajando en formas de restringir la IA a un flujo de trabajo similar al humano, de modo que los pasos individuales de su razonamiento sean más transparentes.
Sin embargo, Ma reconoció que, dada la increíble cantidad de datos que se manejan, sería imposible que la IA explicara cómo influye cada dato en su razonamiento sin abrumar al operador.
«Si el operador humano sabe claramente que se trata de una decisión [tomada] después de que la IA haya procesado terabytes de datos, en la mayoría de los casos no tendrá el valor de anularla. Así que supongo que sí, que será una formalidad», afirma.
«Humano en el circuito es una frase un poco cómoda, pero en realidad, los humanos cederán el control rápidamente».
Presión pública
De Ridder opina que, aunque el control humano sea solo nominal, sigue siendo importante.
«Mientras mantengamos a los humanos informados, podremos exigirles responsabilidades», afirmó.
De hecho, todos los expertos coincidieron en que es probable que la presión pública limite el desarrollo y uso de armas de IA, al menos en Estados Unidos.
Ma puso el ejemplo de Google, que rescindió un contrato de defensa a pesar de las objeciones de su personal.
Sin embargo, no podía prever una situación análoga en China.
Qiu está de acuerdo.
«Cualquier cosa dentro de China es un recurso que el PCCh puede aprovechar», afirma. «No se puede decir: ‘Oh, esto es una empresa privada’. No hay ninguna empresa privada per se [en China]».
Ni siquiera el PCCh puede deshacerse por completo del sentimiento público, dijo De Ridder.
«El gobierno solo puede sobrevivir si la población quiere colaborar».
Pero no hay indicios de que la población china vea el uso militar de la IA como una preocupación urgente.
Al contrario, las empresas y universidades chinas parecen ansiosas por conseguir contratos militares, afirmó Ma.
De Ridder pidió «un marco regulador internacional que pueda hacerse cumplir».
No está claro cómo se podría hacer cumplir esa normativa a China, que tiene un largo historial de rechazo a cualquier límite en su desarrollo militar. Estados Unidos lleva mucho tiempo intentando en vano sentar a China a la mesa del desarme nuclear. Recientemente, China rechazó una petición estadounidense para garantizar que no utilizaría la IA en las decisiones sobre ataques nucleares.
Si Estados Unidos regula su propio desarrollo de IA, podría crear una vulnerabilidad estratégica, sugirieron varios expertos.
«Esas regulaciones serán muy bien estudiadas por el PCCh y utilizadas como herramienta de ataque», dijo Qiu.
Incluso si se llega a algún tipo de acuerdo, el PCCh tiene un pobre historial de cumplimiento de promesas, según Thayer.
«Cualquier acuerdo es una corteza de pastel hecha para romperse».
Soluciones
De Ridder dice que espera que quizá las naciones se conformen con utilizar la IA de formas menos destructivas.
«Hay muchas formas de utilizar la IA para conseguir tus objetivos que no impliquen enviar un enjambre de drones asesinos unos contra otros», afirma.
«A la hora de la verdad, nadie quiere que se produzcan estos conflictos».
Los demás expertos creen, sin embargo, que al PCCh no le importaría iniciar un conflicto de este tipo, siempre y cuando viera un camino claro hacia la victoria.
«Los chinos no se van a ver limitados por nuestras reglas», dijo Fanell. «Harán lo que sea necesario para ganar».
Depender de los susurros de un asesor militar de IA, que infunda confianza procesando montañas de datos y produciendo planes de batalla convincentes, podría ser especialmente peligroso, ya que podría crear una visión de la victoria donde antes no la había, según Thayer.
«Puede resultar muy atractivo para un responsable de la toma de decisiones, especialmente si es hiperagresivo, como el PCCh», afirma Thayer. «Puede hacer que la agresión sea más probable».
«Solo hay una manera de detenerlo, que es ser capaz de derrotarlo», dijo Fanell.
Chuck de Caro, exasesor de la Oficina de Evaluación de la Red del Pentágono, pidió recientemente que Estados Unidos desarrollara armas electromagnéticas que pudieran inutilizar los chips informáticos. Incluso sería posible desarrollar armas energéticas que pudieran inutilizar un tipo concreto de chips, escribió en un artículo de opinión en Blaze.
«Obviamente, sin chips que funcionen, la IA no funciona».
Otra opción podría ser desarrollar una superarma de IA que pudiera servir como elemento disuasorio.
«¿Existe un Proyecto Manhattan de IA que Estados Unidos esté llevando a cabo que pueda crear el efecto que Nagasaki e Hiroshima tendrían en la RPC y en el Partido Comunista Chino, que es hacerles comprender que, ‘Vale, quizá no queramos ir allí. ¿Esto es destrucción mutua asegurada? No lo sé. Pero eso es lo que yo haría», dijo Fanell.
Eso podría dejar al mundo en un punto muerto similar al de la Guerra Fría, difícilmente un estado ideal, pero probablemente preferible a negar la ventaja militar al PCCh.
«Todos los países saben que es peligroso, pero nadie puede parar porque temen quedarse atrás», afirma Ma.
De Ridder dice que podría ser necesaria una profunda conmoción para detener la carrera armamentística de la IA.
«Puede que necesitemos una guerra mundial, con una inmensa tragedia humana, para prohibir el uso de máquinas asesinas autónomas», afirma.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.