La cantidad de material de abuso sexual infantil (CSAM) en el ciberespacio sigue expandiéndose y creciendo.
En los últimos 15 años, las denuncias de material de abuso sexual en línea se han disparado un 15,000 por ciento, según Thorn, una organización sin ánimo de lucro creada por los actores Demi Moore y Ashton Kutcher que desarrolla tecnología para proteger a los niños de los abusos y la depredación.
El Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) informó de que su CyberTipline recibió casi 32 millones de denuncias de abusos a menores en 2022 y los casos de incitación en línea a menores para actos sexuales casi se duplicaron, pasando de 44,155 a 80,524.
El centro añadió que en 2021 se habían denunciado 85 millones de imágenes de abusos a menores a través de la CyberTipline.
Los pornógrafos infantiles aprovechan ahora la Inteligencia Artificial (IA) -que evoluciona continua y rápidamente- para aprovecharse de los niños y explotarlos.
«Hay pruebas… de que la pornografía infantil generada por inteligencia artificial se está extendiendo», afirmó Nishant Vishwamitra, profesor del Departamento de Sistemas de Información y Ciberseguridad de San Antonio (USTA), en una conversación con The Epoch Times.
Vishwamitra dijo que «acaba de salir un informe de Stanford, y la Internet Watch Foundation [IWF] encontró miles de CSAM generados por IA en un foro de la Dark Web con sede en el Reino Unido».
Dirige un equipo que investiga y analiza el odio en línea y otras formas cibernéticas de comportamiento ofensivo y utiliza la información y los datos para desarrollar herramientas que puedan utilizarse para identificar mejor las imágenes ofensivas de IA en línea.
«La idea es crear una referencia de imágenes de IA del mundo real -es decir, imágenes muy realistas sin ninguna imperfección- para poner a prueba la capacidad de los detectores existentes».
«Hemos descubierto que los detectores existentes funcionan bien en imágenes generadas con tecnología vainilla, pero fallan de forma alarmante en este tipo de imágenes del mundo real».
Una de las principales preocupaciones de los padres, las escuelas, los defensores del bienestar infantil y las fuerzas del orden es lo fácil que es utilizar la IA para tomar fotos y vídeos reales y benignos de rostros de niños -y audio de ellos hablando- y luego combinarlos con desnudos y actos sexuales para crear pornografía infantil «deepfake» y realista.
Las fotos, vídeos y archivos de audio de niños pueden obtenerse de muchos sitios de Internet, sobre todo de las redes sociales.
Con un clic del ratón, las imágenes deformadas pueden publicarse y estar disponibles en todo el mundo.
Una vez distribuidas, no hay forma de eliminarlas del ciberespacio.
Según un experto, no es difícil utilizar la IA para hacer CSAM.
«La razón principal es que la IA no requiere software de aprendizaje y las herramientas son gratuitas y fáciles de conseguir», afirma Yaron Litwin, experto en seguridad digital y director de marketing de Canopy, una empresa que ha desarrollado un filtro en línea para proteger a los niños, en una declaración enviada a The Epoch Times.
Vishwamitra dijo: «Cualquiera que tenga un ordenador con una GPU [unidad de procesamiento gráfico] puede crear CSAM con herramientas gratuitas y fáciles de usar. Todo lo que hay que hacer es ir a un sitio web, seguir los pasos de instalación, iniciar la aplicación e introducir texto».
Y aunque producir CSAM es fácil, seguir y detener a los infractores de la ley no lo es.
Uno de los principales factores que dificultan la identificación, detención y enjuiciamiento de los productores de pornografía infantil y de quienes descargan, almacenan y distribuyen las imágenes es que la actividad puede tener lugar en cualquier parte del mundo, incluso en países que no tienen leyes que prohíban la pornografía infantil, o en países que las tienen pero no se aplican estrictamente.
El Observatorio de Internet de Stanford (SIO), un laboratorio de la Universidad de Stanford que investiga y analiza cómo se abusa de la tecnología -especialmente en las redes sociales-, publicó el 20 de diciembre un artículo en su blog que daba una idea de la profundidad y amplitud del reto y de su peligro.
Como se indica en el informe, SIO encontró más de 3000 imágenes de presuntos abusos a menores en el gigantesco conjunto de datos de IA LAION-5B, un índice en línea de código abierto de más de 5000 millones de pares imagen-texto (de ahí el nombre LAION-5B) que se había utilizado para entrenar a los principales creadores de imágenes de IA, como Stability AI’s Stable Diffusion.
SIO colaboró con el Centro Canadiense para la Protección de la Infancia (C3P) y otras organizaciones benéficas contra el abuso para identificar el material ilegal y denunciar los enlaces de las fotos originales a las fuerzas de seguridad.
LAION respondió rápidamente a los hallazgos de SIO. El mismo día en que SIO publicó su informe, LAION comunicó a The Associated Press que retiraba temporalmente sus conjuntos de datos.
LAION, acrónimo de Large-scale Artificial Intelligence Open Network (Red Abierta de Inteligencia Artificial a Gran Escala), sin ánimo de lucro, declaró en un comunicado que «tiene una política de tolerancia cero con los contenidos ilegales y, por precaución, hemos retirado los conjuntos de datos de LAION para asegurarnos de que son seguros antes de volver a publicarlos».
Hasta que se publicó el informe de SIO, los investigadores de la lucha contra el abuso pensaban que la única manera de que algunas herramientas de IA no controladas produjeran imágenes abusivas de niños era esencialmente combinando lo que habían aprendido de dos cubos separados de imágenes en línea: pornografía adulta y fotos benignas de niños.
Sin embargo, SIO descubrió que las imágenes abusivas ya estaban almacenadas y disponibles en el conjunto de datos, y que podían recuperarse con un mensaje de texto.
El 5 de enero, The Epoch Times se puso en contacto con LAION y Stability AI para recabar sus comentarios, pero no ha recibido respuesta de ninguna de las dos organizaciones.
Respuesta y medidas del gobierno
Australia ha asumido el liderazgo internacional en el establecimiento y aplicación de políticas nacionales sobre el cumplimiento por parte de las empresas de las medidas de seguridad y protección del CSAM.
A partir de agosto de 2022, el Comisionado Australiano de Seguridad Electrónica (eSafety) emitió órdenes a las principales empresas tecnológicas sobre lo que se espera de sus operaciones, productos y servicios para proteger a los niños de la explotación, junto con la exigencia de que las empresas expliquen cómo están cumpliendo con las órdenes.
Tras la emisión inicial de órdenes en agosto de 2022 -que se enviaron a Apple, Meta, Skype, WhatsApp, Omegle y Snap-, eSafety envió un segundo conjunto de órdenes, el 22 de febrero de 2023, a Google, Twitter (ahora X), Discord, TikTok y Twitch.
En su artículo del 17 de octubre en The Epoch Times, Alfred Bui informó que, de las empresas tecnológicas que recibieron la orden de expectativas de eSafety, solo X incurrió en un incumplimiento tan grave que fue multada con 385.000 dólares, a pesar de que otras empresas, incluida Google, también tenían al menos un área de infracción.
Tanto si la multa como la publicidad negativa motivaron a X como si no, la empresa introdujo cambios, como informó Katabella Roberts en su artículo «X Says Platform Now Scanning All Videos, GIFs for Child Abuse Material in Safety Update«, publicado el 29 de diciembre en The Epoch Times.
En julio de 2022, la Organización de las Naciones Unidas (ONU) fundó el Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia (UNICRI), que el organismo describe como una «plataforma centralizada única para los organismos encargados de hacer cumplir la ley» que proporciona a las fuerzas del orden «herramientas de IA para prevenir, detectar y perseguir la explotación y el abuso sexual infantil en línea.»
Un esfuerzo unánime de los fiscales generales de Estados Unidos está al frente y presiona al Congreso para que tome medidas en la investigación, vigilancia y prevención del uso de la IA para amenazar y dañar a los niños.
El 5 de septiembre, los fiscales generales de los 50 estados y cuatro territorios de EE.UU. enviaron una carta a los líderes republicanos y demócratas de la Cámara de Representantes y el Senado pidiéndoles que «establezcan una comisión de expertos para estudiar los medios y métodos de la IA que pueden utilizarse para explotar específicamente a los niños» y amplíen las restricciones existentes sobre materiales de abuso sexual infantil específicamente para cubrir las imágenes generadas por IA.
Uno de esos fiscales generales es Marty Jackley, de Dakota del Sur.
Dos días antes de la publicación del informe de la SIO, Jackley anunció sus prioridades legislativas para 2024, entre ellas cambiar la ley de Dakota del Sur para que la creación de CSAM generado por IA constituya una violación de las leyes de pornografía infantil del estado.
Actualmente, solo la creación y distribución de imágenes de niños reales siendo dañados es un delito en Dakota del Sur.
«La pornografía generada por niños y el uso de ‘deepfakes’ que utilizan voces y fotografías de niños reales son problemas crecientes en Dakota del Sur y en todo el país», declaró el fiscal general Jackley en un comunicado que su oficina remitió a The Epoch Times.
«El Congreso aún no ha abordado la cuestión, por lo que estoy proponiendo legislación en la sesión legislativa estatal de 2024 que aborde estos problemas». La Oficina del Fiscal General espera trabajar con el gobernador y los legisladores en este proyecto de ley.»
Delincuente sexual infantil desenmascarado
Un ejemplo de cómo las leyes vigentes pueden resultar inadecuadas en la era del auge del porno generado por IA es el caso de la detención el 3 de enero en Florida de un delincuente sexual infantil de 27 años por posesión de pornografía infantil.
Los detectives del condado de Columbia recibieron el soplo de que Randy Cook, de 27 años, que había sido condenado por abusos deshonestos y lascivos, había almacenado digitalmente dibujos animados e imágenes explícitas de niños generadas por IA.
Cook dijo a los investigadores que formaba parte de un grupo llamado Make Loli Legal. Dijo a los agentes de la ley que utilizaba las imágenes para controlar sus impulsos sexuales.
Pero Cook no fue detenido por los dibujos animados y las imágenes generadas por IA. El Tercer Distrito Judicial determinó que, en virtud de los estatutos vigentes, dado que las imágenes no mostraban a niños reales, no eran ilegales.
Sin embargo, fue detenido después de que las autoridades continuaran su búsqueda y encontraran pornografía infantil real.
Además, las autoridades descubrieron que Cook tenía cuentas en redes sociales que no había registrado, como delincuente sexual que está obligado a hacer.
«Llevo 18 años y medio en las fuerzas del orden y es la primera vez que oigo hablar de pornografía generada por IA», dijo Steve Kachighan, oficial de información pública de la oficina del sheriff del condado de Columbia, Mark Hunter, en una llamada telefónica con The Epoch Times.
«Tal vez he estado viviendo bajo una roca, y especulo que cuando se escribieron los estatutos, la pornografía generada por IA no estaba prevista».
Cuando se le preguntó si las imágenes generadas por IA en el ordenador de Cook contenían fotos de niños, Kachighan remitió a The Epoch Times al Tercer Circuito Judicial para que lo aclarara.
Organizaciones sin ánimo de lucro que luchan por los niños
SIO y Thorn -que colaboraron en la localización del CSAM generado por IA- forman parte de una red internacional de grupos de defensa de la infancia que están respondiendo a la amenaza.
En octubre, la Internet Watch Foundation (IWF), que encontró miles de imágenes de CSAM en la Dark Web, publicó su informe «Cómo se está abusando de la IA para crear imágenes de abuso sexual infantil«.
«El Centro Nacional para Menores Desaparecidos y Explotados dedica una atención considerable a abordar y dar a conocer la naturaleza y el alcance de la crisis de los abusos sexuales a menores, en la que los materiales son creados cada vez más por la IA.
Un recurso emblemático del NCMEC en este esfuerzo es su CyberTipline, creada en 1998. Se trata de un mecanismo en línea que el público y los proveedores de servicios electrónicos (PSE) pueden utilizar para denunciar incidentes de explotación y daños a menores. El Programa de Identificación de Víctimas Infantiles (CVIP) del NCMEC, puesto en marcha en 2002, compara imágenes de víctimas infantiles descubiertas por los analistas del NCMEC con imágenes de víctimas identificadas por las fuerzas de seguridad.
El programa ha identificado a más de 19,000 niños y es un componente fundamental del rescate de menores.
INHOPE, una red internacional de 54 líneas directas de 50 países centrada en la lucha contra la explotación sexual comercial de menores, colabora con el centro nacional.
Los analistas revisan y supervisan las líneas directas en busca de CSAM y, si descubren material, se ponen inmediatamente en contacto con el proveedor de servicios de Internet (ISP) en el que se encuentra el contenido para que pueda ser retirado sin demora.
A continuación, un analista comunica toda la información recopilada -incluida la ubicación donde se aloja el contenido- a las fuerzas de seguridad competentes.
Con información de Associated Press .
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.