En la plataforma de streaming Twitch, propiedad de Amazon, se están difundiendo videos cortos de contenido sexual en los que aparecen niños y que reciben miles de visitas.
Twitch tiene una función llamada «Clips» que permite a los usuarios capturar videos cortos de transmisiones en vivo que luego pueden editarse y compartirse. Un reciente análisis de Bloomberg de 1100 clips reveló que al menos 83 de ellos contenían material sexual relacionado con niños. El material fue revisado por el Centro Canadiense para la Protección de la Infancia. De los 83 videos, 34 mostraban a niños, en su mayoría varones de entre 5 y 12 años, exhibiendo sus genitales.
Se descubrió que este exhibicionismo suele estar provocado por el estímulo que reciben de los espectadores de livestream. Estos videos fueron vistos 2700 veces. Algunos de los 49 videos restantes mostraban a niños sometidos a acoso sexual, con 7300 visitas.
Cuando un espectador de livestream capta ese material, «se convierte en un registro casi permanente de ese abuso sexual», dijo Stephen Sauer, director del centro. «Hay una victimización más amplia que se produce una vez que el livestream inicial y el incidente de grooming han ocurrido debido a la posibilidad de una mayor distribución de este material».
El Sr. Sauer insistió en que no se puede esperar que las empresas de redes sociales regulen los contenidos de abuso infantil y pidió la intervención del gobierno.
«Llevamos 25 años observando cómo el sector regula voluntariamente… Sabemos que no funciona. Vemos a demasiados niños explotados en estas plataformas. Y queremos que el gobierno intervenga y diga: ‘Estas son las salvaguardias que tienen que poner en marcha'».
En una declaración al medio, la CEO de Twitch, Dan Clancy, dijo que «el daño a los jóvenes, en cualquier lugar en internet, es profundamente preocupante» Al ser alertada por Bloomberg, la compañía borró el contenido sexual infantil. «Incluso un caso es demasiado, y nos tomamos este asunto muy en serio», dijo Clancy.
Según el «Informe de transparencia» de Twitch correspondiente al primer semestre de 2023, la empresa ha realizado «actualizaciones significativas» para detectar y eliminar material de explotación sexual infantil. También está «abordando formas de daño en evolución, como el Material de Abuso Sexual Infantil (CSAM) habilitado por IA».
Durante este periodo, Twitch emitió 13,801 sanciones por violar la Política de Seguridad Juvenil de la empresa.
Sin embargo, Twitch envió menos pistas al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) de Estados Unidos. Entre el segundo semestre de 2022 y el primero de 2023, el número de pistas cayó de 7600 a 3300.
Twitch insistió en que el descenso «refleja un cambio en nuestra categorización para asegurarnos de que denunciamos con precisión los contenidos ilegales. No representa un cambio en nuestra aplicación de la ley para el contenido que pueda poner en peligro a los jóvenes».
Un estudio de octubre de la Academia Americana de Pediatría (AAP) advirtió que los menores que usan Twitch corren el riesgo de ser manipulados y víctimas de grooming por depredadores sexuales.
«Twitch representa un entorno digital clandestino y amenazante en el que los menores interactúan con adultos desconocidos sin la supervisión de sus padres», afirmaba el estudio.
«Los usuarios jóvenes sienten claramente una falsa sensación de seguridad en la plataforma; una proporción significativa estaba dispuesta a revelar información personal a pesar de no tener conocimiento de quién podría estar escuchando».
The Epoch Times se puso en contacto con Twitch para hacer comentarios.
Material de explotación infantil en Internet
El problema de la proliferación de contenido sexual infantil no se limita a Twitch. Muchas empresas tecnológicas como Twitter, TikTok, Google y Facebook se enfrentan a acusaciones similares.
En febrero del año pasado, Julie Inman Grant, Comisionada de Seguridad Electrónica de Australia, emitió avisos legales a Google, Twitter y TikTok, pidiéndoles que explicaran qué están haciendo para abordar el problema.
«La creación, difusión y visualización de abusos sexuales a menores en Internet inflige traumas incalculables y arruina vidas. También es ilegal», dijo entonces. «Es vital que las empresas tecnológicas tomen todas las medidas que razonablemente puedan para eliminar este material de sus plataformas y servicios».
En noviembre, un juez federal estadounidense dictaminó que las empresas de redes sociales de las grandes empresas tecnológicas tienen que hacer frente a una demanda que acusaba a las empresas de desencadenar una «crisis mental juvenil» y facilitar la difusión de contenido sexual infantil.
Las empresas argumentaban que la Primera Enmienda las protegía de la responsabilidad por los contenidos que publicaban. Sin embargo, la juez de distrito Yvonne Gonzalez Rogers señaló que muchas de las infracciones alegadas en la demanda «no constituyen discurso o expresión, ni publicación de los mismos».
Por ejemplo, los demandantes acusaron a las empresas de redes sociales de no proporcionar controles parentales eficaces a los padres, no ofrecer opciones para que los usuarios se autorrestrinjan el tiempo que pasan en una plataforma, no utilizar una verificación de edad robusta y no implementar protocolos de denuncia que permitan a los usuarios denunciar CSAM y otros materiales similares.
«Para subsanar estos defectos no es necesario que los demandados cambien la forma o el tipo de discurso que difunden», escribió el juez.
Los legisladores están tomando medidas para contrarrestar el problema. En agosto, la representante Ann Wagner (R-Mo.) presentó la Ley de Modernización de la Seguridad Infantil en Internet, que obliga a las empresas de redes sociales a colaborar con las fuerzas de seguridad para identificar a los niños que aparecen en imágenes clasificadas como CSAM.
«Este proyecto de ley dejará claro que las imágenes y videos de niños siendo violados no es ‘pornografía’, es abuso sexual de un niño. Estados Unidos no puede, y no debe, aceptar una realidad en la que se explota sexualmente a niños inocentes para obtener beneficios económicos», afirmó.
El despliegue por parte de Meta de la encriptación de extremo a extremo por defecto para mensajes y llamadas personales en Messenger y Facebook también ha suscitado preocupación entre los activistas del bienestar infantil.
En un comunicado de prensa del 7 de diciembre, el Centro Canadiense para la Protección de la Infancia declaró que la decisión de Meta significa que «millones de casos de abuso y explotación sexual infantil dejarán de denunciarse».
Desde 2020, Meta ha remitido 74.4 millones de informes de sospecha de abuso y explotación sexual infantil al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), de acuerdo con los requisitos legales, señaló. Estas denuncias han dado lugar a numerosas investigaciones por parte de las fuerzas policiales.
La decisión de Meta significa que las fuerzas policiales «perderán su capacidad de supervisar eficazmente estos delitos que se desarrollan en grandes franjas de sus plataformas, incluidas Facebook e Instagram».
«El NCMEC, que procesa los informes de explotación infantil de Meta, ha estimado que estas acciones podrían causar que hasta el 70 por ciento de todos los casos denunciables en sus servicios pasen desapercibidos».
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.