Nuevo proyecto de ley bipartidista impediría que la AI lance armas nucleares

Por Andrew Thornebrooke
01 de mayo de 2023 2:56 PM Actualizado: 01 de mayo de 2023 2:56 PM

Un grupo bipartidista de legisladores está preparando una ley para impedir que el Pentágono utilice inteligencia artificial (IA) para lanzar armas nucleares.

La Ley de Bloqueo del Lanzamiento Nuclear por Inteligencia Artificial Autónoma pretende salvaguardar el proceso de mando y control nuclear de futuros cambios políticos que podrían permitir a la IA tomar decisiones sobre el lanzamiento nuclear y los objetivos.

Los representantes Ken Buck (R-Colo.), Don Beyer (D-Va.), Ted Lieu (D-Calif.), y el senador Edward Markey (D-Mass.) presentaron la legislación a ambas cámaras del Congreso el 26 de abril.

«Si bien el uso militar de la IA por parte de Estados Unidos puede ser apropiado para mejorar la seguridad nacional, el uso de la IA para el despliegue de armas nucleares sin una cadena humana de mando y control es imprudente, peligroso y debe prohibirse», dijo Buck en una declaración preparada.

«Estoy orgulloso de copatrocinar esta legislación para garantizar que los seres humanos, no las máquinas, tengan la última palabra sobre las decisiones militares más críticas y sensibles».

La IA no sustituye al «juicio humano»

La Revisión de la Postura Nuclear 2022 del Pentágono mantiene que su política actual es «mantener a un humano ‘en el bucle’ para todas las acciones críticas para informar y ejecutar las decisiones del presidente para iniciar y terminar el empleo de armas nucleares».

Sin embargo, esa política parece informal y no se aplica a los sistemas letales autónomos no nucleares que, a pesar del malentendido popular, no están prohibidos por el Pentágono.

El proyecto de ley codificaría la política actual del Pentágono sobre la IA y las armas nucleares, ordenando que no se utilicen fondos federales para el lanzamiento de ningún arma nuclear por un sistema automatizado sin un control humano significativo.

El control humano significativo, según el proyecto de ley (pdf), incluiría la toma de decisiones humanas sobre la selección y la intervención de objetivos nucleares, así como el momento, el lugar y la forma de dicho uso.

«La tecnología de IA se está desarrollando a un ritmo extremadamente rápido», dijo Lieu. «Mientras todos intentamos lidiar con el ritmo al que se está acelerando la IA, el futuro de la IA y su papel en la sociedad siguen sin estar claros».

«La IA nunca podrá sustituir al juicio humano a la hora de lanzar armas nucleares».

Aumenta el riesgo de conflicto nuclear con China

Desde la Guerra Fría, Estados Unidos ha mantenido una serie de capacidades nucleares de segundo ataque en lo que se denomina estado de «lanzamiento en alerta».

Esto significa que la nación lanzará armas nucleares contra un agresor nuclear percibido al detectar misiles entrantes en lugar de esperar a verificar que la nación ha sido realmente alcanzada por un ataque de este tipo.

Según el Informe sobre el Poder de China 2022 del Pentágono (pdf), China también está aplicando una postura de lanzamiento en caso de alerta, denominada «contraataque de alerta temprana», en la que la advertencia de un ataque con misiles conduce a un contraataque antes de que pueda detonar un primer ataque enemigo, y ha realizado ejercicios con respuestas nucleares de lanzamiento en caso de alerta al menos desde 2017.

Por lo tanto, si cualquiera de las dos naciones permitiera que la IA tomara decisiones sobre lanzamientos nucleares, un falso positivo en los sistemas de rastreo nuclear podría escalar rápidamente a una guerra nuclear en toda regla.

Tal escenario también podría verse exacerbado por otros desarrollos tecnológicos recientes, incluido el desarrollo por parte de China de tecnologías que podrían apoderarse o interferir de otro modo con la infraestructura satelital estadounidense, incluidos los sistemas de puntería de misiles.

«A medida que vivimos en una era cada vez más digital, tenemos que asegurarnos de que los seres humanos son los únicos que tienen el poder de mando, control y lanzamiento de armas nucleares, y no los robots», dijo Markey.

«Tenemos que mantener a los humanos en el bucle de la toma de decisiones de vida o muerte para usar la fuerza letal, especialmente para nuestras armas más peligrosas».


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.