Los humanos, no la IA, decidirán sobre los ataques nucleares, según un general de EE.UU.

El general estadounidense Anthony J. Cotton dijo que espera que los adversarios de Estados Unidos también adopten esta postura

Por Zachary Stieber
14 de agosto de 2024 11:19 PM Actualizado: 14 de agosto de 2024 11:19 PM

La inteligencia artificial no decidirá sobre los ataques nucleares, dijo esta semana un alto general estadounidense.

“En lo que respecta a nosotros y a cómo utilizamos la IA y el aprendizaje automático, los humanos estarán absolutamente al tanto”, dijo a los periodistas el 13 de agosto el general Anthony J. Cotton, comandante del Mando Estratégico de Estados Unidos, durante una sesión informativa en el Simposio de Disuasión del Mando Estratégico de Estados Unidos en Nebraska.

Según Cotton, la inteligencia artificial puede ayudar a los funcionarios estadounidenses a analizar los datos de inteligencia, vigilancia y reconocimiento. Pero el Mando Estratégico no tiene, ni Cotton quiere, un ordenador que tome decisiones cruciales como las que se desarrollaron en la película de 1983 “Juegos de guerra”.

“No busco la solución ‘WOPR’ de la película de los 80 ‘Juegos de guerra’. ¿Verdad? Nadie la busca”, dijo, refiriéndose al Plan de Respuesta a la Operación de Guerra.

Cotton añadió después: “Pero lo que estoy diciendo es que hay datos increíbles que se nos dan… que pueden ser increíblemente útiles para nosotros, y tenemos que averiguar cómo podemos entonces gestionar esos datos para poder utilizarlos, para que un humano tome entonces una decisión”.

La Casa Blanca dijo a principios de este año que China no aceptará las propuestas de los funcionarios estadounidenses para mantener la inteligencia artificial alejada de las decisiones de lanzamiento nuclear.

La posición de Estados Unidos, y la de sus aliados, es: “no creemos que los sistemas autónomos deban acercarse a ninguna decisión de lanzar un arma nuclear”, dijo Cotton.

Pero eso “no está acordado por China hasta la fecha”, dijo.

“El problema básico es que China no considera ningún límite y no tiene ningún problema en relacionar la IA con resultados catastróficos, como una guerra nuclear”, declaró anteriormente a The Epoch Times John Mills, exdirector de política de ciberseguridad, estrategia y asuntos internacionales en la Oficina del Secretario de Defensa. “Tenemos muchas más dudas al respecto”.

Cotton dijo que espera que adversarios como China lleguen a adoptar una postura similar a la de Estados Unidos.

“No creo que se quiera que un ‘WOPR’ tome una decisión respecto a la utilización no sólo de armas nucleares, sino incluso de armas convencionales, sin contar con seres humanos en el proceso, ya que no comprender la dinámica de la decisión que toma el ‘WOPR’, si se quiere, tiene consecuencias en un conflicto”, dijo.

Cotton también habló durante la sesión informativa sobre la actualización de los sistemas nucleares, afirmando que espera modernizar los sistemas sin dejar de garantizar que puedan funcionar como es necesario.

Y tampoco quiso detallar sus recientes interacciones con el presidente Joe Biden, que ha abandonado la carrera para 2024 pero no ha dejado la presidencia.

“No tengo ninguna preocupación con el actual comandante en jefe y su capacidad para darme órdenes legales si es necesario”, dijo Cotton.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.