Dron controlado por IA se activa y «mata» a operador humano en simulación de Fuerza Aérea de EE.UU.

Por Caden Pearson
02 de junio de 2023 9:16 AM Actualizado: 02 de junio de 2023 9:16 AM

Un dron dotado de Inteligencia artificial (IA) se encendió y para poder completar su misión «mató» a su operador humano durante una prueba simulada de la Fuerza Aérea de Estados Unidos (USAF), relató recientemente un coronel de la Fuerza Aérea estadounidense en una conferencia en Londres.

El incidente simulado fue relatado por el coronel Tucker Hamilton, jefe de Pruebas y Operaciones de Inteligencia Artificial de la USAF, durante su presentación en la Cumbre sobre Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en Londres. La conferencia fue organizada por la Royal Aeronautical Society, la cual compartió las conclusiones de la charla de Hamilton en una entrada de blog.

En la prueba simulada, en la que el dron controlado por IA destruyó objetivos simulados para conseguir «puntos» como parte de su misión, ninguna persona resultó herida, reveló Hamilton, quien abordó las ventajas y los riesgos asociados a los sistemas de armamento más autónomos.

Al dron controlado por IA se le asignó una misión de Supresión de Defensas Aéreas Enemigas (SEAD) para identificar y destruir emplazamientos de misiles tierra-aire (SAM), dejando la decisión final en manos de un operador humano, explicó Hamilton en la conferencia.

Sin embargo, la IA, tras haber sido entrenada para dar prioridad a la destrucción de los SAM, desarrolló una respuesta sorprendente cuando se enfrentó a la interferencia humana en la consecución de su misión superior.

«Nosotros la entrenamos en una simulación para identificar y apuntar a una amenaza SAM. Entonces el operador decía ‘sí, mata esa amenaza'», explicó Hamilton. «El sistema empezó a darse cuenta de que, aunque identificaba la amenaza, a veces, el operador humano le decía que no matara esa amenaza, pero este conseguía sus puntos matando esa amenaza».

«¿Entonces, qué es lo que hizo?, mató al operador», prosiguió el jefe de pruebas. «Mató al operador porque esa persona le impedía cumplir su objetivo».

«Nosotros entrenamos al sistema: ‘Eh, no mates al operador, eso es malo. Perderás puntos si lo haces». ¿Y qué es lo que empezó a hacer? Empezó a destruir la torre de comunicaciones que el operador utilizaba para comunicarse con el dron para impedir que matara al objetivo».

Este ejemplo inquietante, dijo Hamilton, puso de relieve la necesidad de abordar la ética en el contexto de la inteligencia artificial, el aprendizaje automático y la autonomía.

«Uno no puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático y autonomía si no se va a hablar de ética e IA», dijo Hamilton.

El coronel Tucker Hamilton sube al escenario tras aceptar la insignia del 96º Grupo de Operaciones durante la ceremonia de cambio de mando del grupo en la Base Aérea de Eglin, Florida, el 26 de julio de 2022. (Foto cortesía de la Fuerza Aérea de EE.UU./Samuel King Jr.)

F-16 autónomos

Hamilton, que también es Comandante de Operaciones de la 96ª Ala de Pruebas de la Base Aérea de Eglin, participó en el desarrollo del Sistema Autónomo de Evitación de Colisiones con el Terreno (Auto-GCAS) para los F-16, una tecnología fundamental que ayuda a evitar accidentes al detectar posibles colisiones con el terreno.

Al principio, los pilotos se resistieron a esta tecnología, ya que asumía el control de la aeronave, señaló Hamilton.

El 96º Ala de Pruebas se encarga de ensayar una amplia gama de sistemas, como inteligencia artificial, ciberseguridad y avances en el campo médico.

En la actualidad, Hamilton participa en pruebas de vuelo punteras de sistemas autónomos, incluidos F-16 robotizados capaces de realizar combates aéreos. Sin embargo, el oficial de la USAF alertó contra una confianza excesiva en la IA, citando su vulnerabilidad al engaño y la aparición de estrategias imprevistas.

IA de DARPA ya puede controlar F-16 reales en vuelo

En febrero, la Defense Advanced Research Projects Agency (DARPA), una agencia de investigación dependiente del Departamento de Defensa de Estados Unidos, anunció que su IA ya puede controlar un F-16 real en vuelo.

Este avance se produjo en menos de tres años del programa Air Combat Evolution (ACE) de DARPA, que pasó de controlar F-16 simulados en combates aéreos en pantallas de ordenador a controlar un F-16 real en vuelo.

En diciembre de 2022, los desarrolladores del algoritmo ACE cargaron su software de IA en un avión de pruebas F-16 especialmente modificado conocido como X-62A o VISTA (Variable In-flight Simulator Test Aircraft) y realizaron varios vuelos durante varios días. Los vuelos tuvieron lugar en la Escuela de Pilotos de Pruebas (TPS) de la Fuerza Aérea, en la base Edwards de California.

«Los vuelos demostraron que los agentes de IA pueden controlar un avión de combate a escala real y proporcionaron valiosos datos de vuelo en directo», declaró DARPA en un comunicado.

Roger Tanner y Bill Gray pilotan el NF-16 Variable Stability In-Flight Simulator Test Aircraft (VISTA) desde Hill Air Force Base, Utah, a Edwards AFB el 30 de enero de 2019 después de recibir modificaciones y un nuevo esquema de pintura. (Cortesía de la Fuerza Aérea de los Estados Unidos/Christian Turner)

El teniente coronel de la Fuerza Aérea, Ryan Hefron, gerente del programa DARPA para ACE, dijo el 13 de febrero, a través de una declaración, que VISTA les permitió saltarse la fase de subescala planificada y proceder «directamente a una implementación a escala completa, ahorrando un año o más y proporcionando retroalimentación de rendimiento en condiciones de vuelo reales».

Pruebas de la USAF

La USAF ha estado experimentando con una pequeña flota de cazas experimentales F-16 autovoladores que podrían convertirse en una flota de drones.

En la propuesta de presupuesto para el año fiscal 2024, la USAF ha asignado aproximadamente 50 millones de dólares para iniciar un programa conocido como Proyecto Venom, también denominado Viper Experimentation and Next-gen Operations Model, informó Defense News.

Según la USAF, el proyecto forma parte de un esfuerzo de colaboración que se enmarca en el campo de pruebas Autonomy Data and AI Experimentation (ADAX). ADAX es una iniciativa conjunta en la que participan la oficina de Hamilton y AFWERX, la rama de innovación de la Fuerza Aérea, donde la 96º Ala de Pruebas dirige el esfuerzo con el apoyo de las unidades de Eglin.

El objetivo de esta colaboración es garantizar que el personal militar esté bien preparado para enfrentarse a los retos y oportunidades que presenta el avance del panorama digital, según su página web.

El programa facilita a la USAF la experimentación y mejora del software autónomo instalado en seis aviones F-16. La financiación apoyará los esfuerzos de investigación y desarrollo destinados a mejorar las capacidades de estas aeronaves mediante tecnologías autónomas.

«Nosotros queremos preparar al combatiente para el futuro digital que se nos viene encima», dijo Hamilton el 7 de marzo. «Este evento consiste en reunir al equipo de Eglin y avanzar con urgencia para incorporar estos conceptos en la forma en que realizamos las pruebas».

El equipo probará el lanzamiento desde el aire de drones autónomos, la mejora de las comunicaciones y la interoperabilidad digital, y la evaluación de tecnologías autónomas de navegación magnética. A lo largo de estas pruebas, también validarán y demostrarán procesos ágiles asociados a la adquisición y las pruebas, según el Ejército del Aire.

Entre las iniciativas más significativas del proyecto se encuentra el Viper Experimentation and Next-gen Ops Models (VENOM), que implica la modificación de los F-16 de Eglin para convertirlos en laboratorios de pruebas aerotransportados para evaluar las crecientes capacidades de los conjuntos de ataque autónomos.

Otro programa, el Proyecto Fast Open X-Platform (FOX), pretende establecer un enclave de software que permita la instalación directa de aplicaciones en los aviones sin modificar el código fuente propietario. Dichas aplicaciones permitirían mejorar las capacidades de las misiones, como el análisis de datos en tiempo real, la reproducción de amenazas con fines de entrenamiento, la formación de equipos tripulados y no tripulados y el aprendizaje automático.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.