ONU advierte que la IA puede suponer una amenaza «negativa, incluso catastrófica» para los DDHH

Por Katabella Roberts
17 de septiembre de 2021 10:29 AM Actualizado: 17 de septiembre de 2021 10:29 AM

Naciones Unidas ha advertido que los sistemas de inteligencia artificial (IA) pueden suponer una amenaza «negativa, incluso catastrófica» para los derechos humanos y ha pedido que se prohíban las aplicaciones de IA que no se utilicen respetando los derechos humanos.

La jefa de derechos humanos de la ONU, Michelle Bachelet, instó el 15 de septiembre a los Estados miembros a prohibir temporalmente la venta y el uso de la IA hasta que se hayan abordado los riesgos potenciales que plantea y se hayan establecido las salvaguardias adecuadas para garantizar que no se abuse de la tecnología.

«No podemos permitirnos seguir jugando a ponernos al día en lo que respecta a la IA, permitiendo su uso con límites o supervisión limitados o inexistentes y lidiando con las casi inevitables consecuencias para los derechos humanos a posteriori», dijo Bachelet en una declaración.

«El poder de la IA para servir a las personas es innegable, pero también lo es su capacidad para alimentar las violaciones de los derechos humanos a una escala enorme y prácticamente sin visibilidad. Es necesario actuar ahora para poner barreras a los derechos humanos en el uso de la IA, por el bien de todos nosotros», añadió la responsable de derechos humanos.

Sus declaraciones se producen poco después de que su oficina publicara un informe en el que se analiza cómo la IA afecta al derecho a la intimidad de las personas, así como a una serie de otros derechos relativos a la salud, la educación, la libertad de movimiento y la libertad de expresión, entre otros.

El documento incluye una evaluación de la elaboración de perfiles, la toma de decisiones automatizada y otras tecnologías de aprendizaje automático.

Aunque el informe señala que la IA puede tener un buen uso, y puede ayudar a «las sociedades a superar algunos de los grandes retos de nuestro tiempo», su uso como herramienta de previsión y elaboración de perfiles puede afectar drásticamente a «los derechos a la intimidad, a un juicio justo, a no ser detenido arbitrariamente y al derecho a la vida».

Según el informe, numerosos estados y empresas no suelen llevar a cabo los trámites necesarios cuando se apresuran a incorporar aplicaciones de IA y, en algunos casos, esto ha dado lugar a peligrosos errores, ya que, según se informa, algunas personas han sido maltratadas e incluso detenidas debido a un programa informático de reconocimiento facial defectuoso.

Por otra parte, el reconocimiento facial tiene el potencial de permitir un seguimiento ilimitado de las personas, lo que puede dar lugar a una serie de problemas relacionados con la discriminación y la protección de datos.

Un robot de IA desarrollado por la empresa china CloudMinds en la Mobile World Conference en Shanghai el 27 de junio de 2018. (AFP / Getty Images)
Unos visitantes observan un sistema de ciudad inteligente de IA de iFLY en la Exposición Internacional de la Industria del Transporte Inteligente 2018 en Hangzhou, en la provincia oriental china de Zhejiang, en diciembre de 2018. (STR/AFP/Getty Images)

Dado que muchos sistemas de IA se basan en grandes conjuntos de datos, las cuestiones adicionales relacionadas con la forma en que se almacenan estos datos a largo plazo también suponen un riesgo, y existe la posibilidad de que estos datos sean aprovechados en el futuro, lo que podría suponer importantes riesgos para la seguridad nacional.

«La complejidad del entorno de datos, los algoritmos y los modelos que subyacen al desarrollo y al funcionamiento de los sistemas de IA, así como el secretismo intencionado de los actores gubernamentales y privados, son factores que socavan las vías adecuadas para que el público comprenda los efectos de los sistemas de IA sobre los derechos humanos y la sociedad», afirma el informe.

Tim Engelhardt, funcionario de derechos humanos de la Sección de Estado de derecho y democracia, advirtió que la situación es «nefasta» y que solo ha empeorado con el paso de los años, ya que algunos países y empresas adoptan aplicaciones de IA sin investigar los múltiples riesgos potenciales asociados a la tecnología.

Aunque acoge con satisfacción el acuerdo de la UE para «reforzar las normas de control», señaló que la solución a la miríada de problemas que rodean a la IA no llegará en el próximo año y que los primeros pasos para resolver esta cuestión deben darse ahora o «muchas personas en el mundo pagarán un alto precio».

«Cuanto mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA», añadió Bachelet.

El informe y las declaraciones de Bachelet se producen tras conocerse en julio que un programa espía, conocido como Pegasus, se utilizó para piratear los teléfonos inteligentes de miles de personas en todo el mundo, incluidos periodistas, funcionarios del gobierno y activistas de derechos humanos.

El teléfono del ministro de Economía de Francia, Bruno Le Maire, fue solo uno de los que se investigaron en el marco del hackeo mediante el programa espía, desarrollado por la empresa israelí NSO Group.

NSO Group emitió una declaración a múltiples medios de comunicación en la que no abordaba las acusaciones, pero afirmaba que la empresa «seguirá proporcionando a los servicios de inteligencia y a las fuerzas de seguridad de todo el mundo tecnologías que salvan vidas para luchar contra el terror y el crimen».

En su intervención en la audiencia del Consejo de Europa sobre las implicaciones derivadas de la controversia sobre el software espía Pegasus, Bachelet dijo que las revelaciones no eran una sorpresa, dado el «nivel de vigilancia sin precedentes en todo el mundo por parte de actores estatales y privados».


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.