Fiscal Gen. de Virginia se une a coalición que lucha contra imágenes de abuso infantil generadas por IA

Por Masooma Haq
06 de septiembre de 2023 3:02 PM Actualizado: 06 de septiembre de 2023 3:07 PM

El fiscal general de Virginia, Jason Miyares, se unió a una coalición de fiscales generales de 54 estados y territorios de EE. UU. que instan al Congreso a estudiar cómo se utiliza la Inteligencia artificial (IA) para crear material de abuso sexual infantil y a introducir una legislación para facilitar el procesamiento de tales crímenes.

“El uso de IA en la producción de materiales sobre abuso sexual infantil es cada vez más frecuente. Nosotros estamos en una carrera contrarreloj para establecer fuertes límites legales y protecciones que abarquen las tecnologías de inteligencia artificial y, lo que es más importante, protejan la seguridad y la inocencia de nuestros niños», dijo Miyares en una declaración.

La Asociación Nacional de Fiscales Generales envió una carta (pdf) a los líderes del Congreso sobre el tema.

HISTORIAS RELACIONADAS

Fuerzas militares estadounidenses crean grupo de trabajo sobre inteligencia artificial generativa

Controversia sobre autos sin conductor se convierte en un problema creciente en San Francisco

Fraude deepfake aumenta más del 1000 por ciento, los expertos dicen que es solo el comienzo

Senador dice que se necesita una “agencia reguladora” para los peligros “aterradores” de la IA

Miyares y los demás fiscales generales dijeron que están profundamente preocupados por la seguridad de los niños en sus respectivos estados y territorios.

“Nosotros también tenemos la responsabilidad de hacer rendir cuentas a quienes buscan dañar a los niños en nuestros estados y territorios. Y si bien ya se están persiguiendo activamente los delitos contra niños en Internet, nos preocupa que la IA esté creando una nueva frontera para el abuso que haga que dicho procesamiento sea más difícil”, afirma la carta.

Como la tecnología generada por la IA avanza a un ritmo rápido y las leyes no han podido seguir el ritmo, en junio, Miyares encabezó a 23 fiscales generales estatales para instar a la Administración Nacional de Telecomunicaciones e Información a promover políticas de gobernanza de la inteligencia artificial.

Si bien algunos dicen que el material de abuso sexual infantil (CSAM) generado por IA no victimiza a niños reales, los opositores argumentan que sí causa daño, porque ver pornografía infantil a menudo lleva al espectador a abusar de un niño en la vida real.

Un estudio de 2005 publicado en la revista «Prosecutor» encontró un vínculo entre ver pornografía infantil y abusar sexualmente de niños en la vida real, y el psicólogo forense canadiense Michael C. Seto y sus colegas publicaron un estudio en la revista «Sexual Abuse» con sus hallazgos de que entre el 50 y el 60 por ciento de los espectadores de pornografía infantil admiten haber abusado de niños ellos mismos.

Tipos de material CSAM generado por IA

En su carta, los fiscales generales citan tres tipos de material de abuso sexual infantil (CSAM) generados por IA.

Uno de estos utiliza la imagen de un niño real que no ha sido abusado sexualmente, pero cuya imagen se altera digitalmente para mostrar representaciones de abuso. Un segundo tipo utiliza imágenes de un niño que sufrió abuso sexual y estas imágenes se recrean digitalmente para mostrar otras formas de abuso. Un tercer tipo utiliza imágenes generadas íntegramente por IA sin la imagen de ningún niño real.

Los fiscales generales piden que todas las formas de CSAM generadas por IA sean ilegales y que los delitos puedan procesarse fácilmente.

También están pidiendo al Congreso que cree leyes que “disuadan y aborden la explotación infantil, por ejemplo, ampliando las restricciones existentes sobre el CSAM para cubrir explícitamente el CSAM generado por IA”.

Estados Unidos es el principal consumidor de pornografía infantil y el primero en la lista de creación y apoyo al CSAM, en parte porque demasiadas personas no se dan cuenta o no creen lo que está sucediendo, según Operation Underground Railroad, una fundación privada que trabaja para salvar niños provenientes del tráfico sexual.

El Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro, opera un sistema de informes centralizado llamado CyberTipline, donde las personas pueden enviar incidentes de explotación en línea.

Según el informe del centro de 2022 (pdf), la línea de denuncia recibió más de 49 millones de informes de material de abuso sexual infantil (CSAM), frente a 33 millones en 2020.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.