Llega el «momento Oppenheimer» de los robots asesinos, impulsados por China y Estados Unidos

Por Germain de Lupiac
13 de agosto de 2024 10:38 AM Actualizado: 19 de agosto de 2024 9:15 AM

El desarrollo y la aplicación de la inteligencia artificial (IA) están cada vez más extendidos, y una nueva generación de armas que la incorpora suscita inquietud entre los expertos, sobre todo los robots con fines militares. Sostienen que la IA carece de limitaciones morales y podría llevar a la humanidad a un «momento Oppenheimer».

«Hoy estamos experimentando probablemente el mayor cambio de la historia militar», declaró el jefe del Estado Mayor Conjunto de Estados Unidos, general Mark Milley, «nos encontramos en un momento crucial de la historia desde el punto de vista militar. Estamos experimentando lo que equivale a un cambio fundamental en la propia naturaleza de la guerra.

Tras la última revolución de la guerra mecanizada, asistimos ahora al uso masivo de la robótica y la inteligencia artificial, eliminando a los humanos de la toma de decisiones militares.

El próximo «momento Oppenheimer

A finales de abril de 2024, se lanzó en Viena un llamamiento para regular las armas letales autónomas, también conocidas como «robots asesinos», al término de una conferencia internacional sobre el tema, subrayando la «urgencia» de los infructuosos esfuerzos diplomáticos, mientras que varios Estados, entre ellos Rusia, China y Estados Unidos, se oponen a un texto vinculante. «Este es el momento Oppenheimer de nuestra generación», subraya el documento final.

El «momento Oppenheimer» se refiere a la participación del físico estadounidense Robert Oppenheimer en el desarrollo de la bomba atómica, que trajo la victoria a Estados Unidos y sus aliados en la Segunda Guerra Mundial, lo que le valió el título de «Padre de la Bomba Atómica». Sin embargo, Oppenheimer fue testigo del desastre que la bomba atómica causó al pueblo japonés y de las cicatrices indelebles que dejó en el mundo, lo que le llevó a cuestionarse si su decisión de participar en el desarrollo de la bomba atómica fue la correcta.

Mark Milley está convencido de que la mayoría de los ejércitos más poderosos del mundo estarán robotizados en la próxima década. «En los próximos diez o quince años, una gran parte de los ejércitos de los países avanzados serán robóticos», declaró a ‘Defense One’ en 2023. «Si a la robótica le añades inteligencia artificial, municiones de precisión y la capacidad de ver a distancia, obtienes la mezcla de un verdadero cambio fundamental», advirtió.

El propio Papa Francisco advirtió contra el uso militar de la inteligencia artificial el 14 de junio de 2024, pidiendo la prohibición de las «armas autónomas letales», durante un discurso ante el G7 en el sur de Italia. «En una tragedia como un conflicto armado, es urgente repensar el desarrollo y el uso de dispositivos como las ‘armas autónomas letales’ para prohibir su uso», dijo a los jefes de Estado y de Gobierno de las democracias. «Ninguna máquina debería elegir jamás quitar la vida a un ser humano», insistió el Papa, que se opone ferozmente al comercio de armas.

Desde la invasión rusa de Ucrania hasta las crisis de Oriente Próximo, las tensiones geopolíticas están dando lugar a importantes y muy peligrosos avances militares en el uso de la IA. Robots, drones, torpedos… todo tipo de armas podrían transformarse en sistemas autónomos, gobernados por algoritmos, lo que según los expertos será la tercera gran revolución en el equipamiento militar, tras la invención de la pólvora y la bomba atómica.

Las dos mayores potencias militares del mundo, China y Estados Unidos, están a la vanguardia de las naciones que buscan desarrollar IA militar letal. El régimen comunista chino está desarrollando sistemas letales basados en IA e invirtiendo en capacidades de IA relacionadas con la toma de decisiones y el mando militares.

China invierte mucho en armas letales autónomas

En esta carrera por el armamento autónomo letal, el régimen chino está invirtiendo en plataformas dotadas de inteligencia artificial que algún día llevarán a cabo misiones letales en tiempo de guerra, sin intervención ni control humano alguno.

«Las mejores pruebas disponibles […] sugieren que la estrategia de China es ambiciosa, yendo más allá de cualquier forma de supervisión humana en el campo de batalla hacia una guerra cada vez más autónoma basada en la IA», afirma Gregory Allen, Director del Centro Wadhwani de IA y Tecnologías Avanzadas del Centro de Estudios Estratégicos e Internacionales.

En su opinión, el Partido Comunista Chino (PCCh) está invirtiendo mucho en una amplia gama de nuevas tecnologías, pero la IA es la más importante de ellas. La capacidad del régimen para construir máquinas de guerra impulsadas por IA está alcanzando rápidamente la paridad con la de EE.UU., e incluso podría superarla pronto.

«Aunque Estados Unidos cuenta con ventajas significativas, China podría tomar rápidamente la delantera en la adopción de capacidades de IA por parte de gobiernos y fuerzas armadas», según Gregory Allen. Las ambiciones del régimen en materia de IA no se limitan a los robots asesinos. El PCCh también está invirtiendo en el desarrollo de capacidades de IA relacionadas con la toma de decisiones y el mando militares.

El objetivo del PCCh es eliminar el elemento humano de la toma de decisiones militares con una transformación de la guerra mediante la integración masiva de IA, automatización y ‘big data’. En pocas palabras, las armas totalmente autónomas – «robots asesinos»- serían capaces de seleccionar y atacar objetivos sin intervención humana.

Normativa, pero ¿para quién?

A finales de abril de 2024 se celebró en Viena (Austria) una conferencia de dos días en la que se hizo un llamamiento a todos los países para debatir juntos la cuestión de la militarización de la IA. Asistieron a la conferencia más de 1.000 participantes de más de 140 países, entre ellos dirigentes políticos, expertos y miembros de la sociedad civil.

«Este es el momento Oppenheimer de nuestra generación», declaró Alexander Schallenberg, ministro austriaco de Asuntos Exteriores, en la conferencia sobre sistemas de armas autónomas. «Los sistemas de armas autónomas invadirán pronto los campos de batalla de todo el mundo. Ya lo estamos viendo con los drones con IA y la selección de objetivos basada en IA», afirmó.

Explicó que urge establecer reglas y normas reconocidas internacionalmente para evitar que la IA escape al control humano y amenace a la humanidad. Debemos asegurarnos de que las armas estén controladas por humanos, no por IA.

Según Human Rights Watch, «es dudoso que las armas totalmente autónomas sean capaces de cumplir las normas del derecho internacional humanitario, incluidas las reglas de distinción, proporcionalidad y necesidad militar, mientras amenacen el derecho fundamental a la vida y el principio de dignidad humana», por lo que la ONG pide la prohibición preventiva del desarrollo, la producción y el uso de armas totalmente autónomas.

«Nos estamos acercando a un umbral crítico para actuar en relación con las preocupaciones sobre los sistemas de armas autónomas, y el apoyo a las negociaciones está en niveles sin precedentes», dijo Steve Goose, director de la División de Armas de Human Rights Watch. La adopción de un tratado internacional sólido para regular estos sistemas es más necesaria y urgente que nunca».

El 22 de diciembre de 2023, 152 países, entre ellos Francia, votaron a favor de la primera resolución de la Asamblea General de las Naciones Unidas sobre los sistemas de armas autónomas, con cuatro votos en contra y 11 abstenciones. La resolución reconoce «los importantes retos y preocupaciones» que plantean «las nuevas aplicaciones tecnológicas en el ámbito militar, incluidas las relacionadas con la inteligencia artificial y la autonomía de los sistemas de armas».

Podría desembocar en un tratado que prohíba y regule los sistemas de armas autónomas, aunque no se avanzará si las principales potencias beligerantes del mundo -Rusia, China y Estados Unidos- se niegan a frenar su desarrollo, dado el gran peligro que supone que una de las otras partes lance una guerra robótica.

Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.