El profesor Stuart Russell de ciencias de la computación de la Universidad de California en Berkeley destacó esta semana que “la Inteligencia Artificial (IA) y las comunidades de robótica se enfrentan a una decisión ética importante: si se apoya o se opone al desarrollo de sistemas de armas letales autónomas”, en relación a las leyes.
Un ejemplo de estas armas, podrían ser los “quadcopters”, unos sistemas armados que pueden buscar en una ciudad a enemigos y eliminarlos, sin estar bajo control remoto para ser dirigidos por seres humanos.
“Los Sistemas de armas Autónomas pueden seleccionar y atacar objetivos sin intervención humana; se convierten en letales cuando dichos objetivos incluyen seres humanos”, destacó el Sr. Russel.
El profesor menciona que hoy hay dos programas en práctica sobre ésto impulsados desde la Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos (DARPA), con la aplicación de las leyes Fast Lightweight Autonomy (FLA) y Collaborative Operations in Denied Environment (CODE).
Una le permite a un helicóptero maniobrar solo en una ciudad y dentro del sector urbano a gran velocidad.
La otra le deja libre «todos los pasos de una misión de ataque: encontrar, arreglar, definir la pista de destino, participar, evaluar».
El científico alerta que esto lo quieren aplicar en situaciones en las que el enemigo emite una señal de interferencia, lo que hace que la comunicación de un comando humano sea imposible de realizar.
“Otros países pueden estar llevando a cabo programas clandestinos con objetivos similares”, afirmó.
Al analizar la Convención de Ginebra de 1949 sobre la conducta humana en la guerra, Stuart Russell explica que aunque no hay disposiciones específicas que permitan una autonomía robótica, esta podría ser aplicable legalmente, debido a que la normativa contempla que “en cualquier ataque se requiere satisfacer tres criterios: la necesidad militar; la discriminación entre combatientes y no combatientes; y la proporcionalidad entre el valor del objetivo militar y el potencial de daño colateral”.
En 1977 se añadió la Cláusula Martens, que prohíbe las armas que violen los «principios de humanidad y los dictados de la conciencia pública». Al respecto explicó que “estos son juicios subjetivos que son difíciles o imposibles de satisfacer para los sistemas actuales de Inteligencia Artificial” – no son humanos ni llevan sus principios al tomar decisiones.
El profesor contó que participó en la tercera Convención sobre Armas Convencionales (CCW) en Ginebra, Suiza en abril, y al respecto destacó que varios países solicitaron la prohibición inmediata de los sistemas robóticos sin intervención humana.
Alemania, dijo que “no va aceptar que la decisión sobre la vida y la muerte se tome solamente por un sistema autónomo”, y Japón aclaró que “no tiene ningún plan para desarrollar robots con los humanos fuera del círculo”.
«En pocos años, el proceso podría resultar en un tratado internacional que limite o prohíba las armas autónomas, como ocurrió con armas láser cegadoras en 1995; o podría dejar en su lugar el status quo, lo que lleva inevitablemente a una carrera armamentista», concluyó el profesor Russell.
- Inteligencia artificial puede extinguir a la humanidad, opinan científicos
- Comisión Europea dará € 700 millones por robots que reemplazarán a trabajadores y cirujanos
- Vídeo en inglés de la participación de Stuart Russell
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.