Demandan a Apple por ignorar contenido de abusos sexuales a menores en iCloud

La compañía dejó de utilizar una herramienta de escaneo de material sexual infantil, alegando que suponía un riesgo para la privacidad de los usuarios, señala la denuncia

Por Naveen Athrappully
15 de agosto de 2024 10:14 PM Actualizado: 16 de agosto de 2024 4:11 AM

Apple no está haciendo lo suficiente para detener la difusión de material de abuso sexual infantil (CSAM) en sus ofertas de iCloud e iMessage, acusó un demandante en una demanda presentada recientemente.

La demanda, presentada el martes ante el Tribunal del Distrito Norte de California, afirma que Apple «sabía que tenía un grave problema de CSAM pero decidió no abordarlo».

La demanda fue presentada por una menor no identificada de 9 años a través de su tutor. Entre diciembre de 2023 y enero de 2024, la demandante recibió solicitudes de amistad de dos usuarios desconocidos de Snapchat.

Los desconocidos pidieron el ID de iCloud de la demandante, el servicio de almacenamiento de Apple, tras lo cual enviaron cinco vídeos CSAM a través de iMessage, el servicio de mensajería instantánea de la compañía. Los vídeos mostraban a niños de corta edad manteniendo relaciones sexuales. A continuación, los desconocidos pidieron a la menor a través de iMessage que grabara vídeos explícitos.

«Como resultado de esta interacción, la demandante está gravemente dañada, mental y físicamente. La demandante está buscando psicoterapia y atención de salud mental», dice la demanda.

The Epoch Times se puso en contacto con Apple para pedirle un comentario, pero no recibió respuesta inmediata.

La demanda colectiva propuesta acusaba a Apple de utilizar el pretexto de proteger la privacidad para «mirar hacia otro lado» mientras proliferaba el material sexual infantil en iCloud, señalando el abandono por parte de la compañía de la herramienta de escaneo NeuralHash CSAM.

En 2021, Apple anunció NeuralHash —una herramienta para escanear material sexual infantil en iCloud— para más tarde abandonar el proyecto alegando «graves consecuencias no deseadas para nuestros usuarios», dice la demanda, citando un correo electrónico de Apple.

En el correo electrónico, la empresa tecnológica advertía que este tipo de iniciativas de escaneado podrían dar lugar a una vigilancia masiva y a la preocupación de los usuarios de que se les estuviera examinando por sus puntos de vista políticos o religiosos, lo que podría tener un efecto negativo en la libertad de expresión.

En la denuncia se acusaba a la empresa tecnológica de «participar en el ‘lavado de la privacidad’, una táctica de marketing engañosa en la que Apple proclama su compromiso de proteger la privacidad de sus consumidores, pero se niega a poner en práctica de forma significativa sus ideas declaradas».

Según la denuncia, Apple ha informado «sistemáticamente» de menos casos de CSAM a organismos como el Centro Nacional para Menores Desaparecidos y Explotados (NCMEC).

El año pasado, las principales empresas tecnológicas enviaron más de 35 millones de informes CSAM al NCMEC, mientras que Apple envió 267.

«A pesar de sus abundantes recursos, Apple opta por no adoptar las normas del sector para la detección de CSAM y, en su lugar, traslada la carga y el coste de crear una experiencia de usuario segura a los niños y sus familias, como demuestra su decisión de abandonar por completo su herramienta de detección de CSAM», afirma la denuncia.

La denuncia pide a Apple que «invierta y despliegue medios para mejorar de forma integral la privacidad de los usuarios y garantizar la seguridad de los niños usuarios».

CSAM en Apple

Un informe de septiembre de 2023 de la organización sin ánimo de lucro Heat Initiative identificó 93 casos de CSAM relacionados con productos o servicios de Apple, en los que la mayoría de las víctimas eran menores de 13 años, según la denuncia. De los 93 casos, 34 implicaban el uso de iCloud para almacenar y distribuir CSAM.

La demanda citaba una entrevista concedida a Forbes por Jon Rouse, un antiguo investigador australiano de abusos a menores, en la que afirmaba que Apple no realiza ningún «escaneo proactivo» de sus productos y servicios para ayudar a las fuerzas de seguridad a contrarrestar la explotación infantil.

En la demanda de Epic Games contra Apple, un empleado de la compañía le dijo a un colega que el estricto enfoque de Apple en la privacidad la convertía en la «mayor plataforma para distribuir porno infantil», según la demanda, que cita mensajes del chat.

La insistencia de Apple en el mantenimiento de la privacidad de los usuarios fue cuestionada en la demanda, que citó un caso comprometedor cuando la compañía transfirió las operaciones de los usuarios chinos de iCloud a una firma china GCBD en 2018.

Esta acción esencialmente negó la privacidad de los ciudadanos chinos anónimos en una nación reconocida internacionalmente por perseguir a los disidentes.

De acuerdo con la ley de Seguridad Cibernética de China, GCBD está obligada a proporcionar los datos personales de los usuarios a las autoridades chinas a petición. Según la demanda, esto contradice las afirmaciones de Apple de dar prioridad a la privacidad de las personas.

Proliferación de CSAM en plataformas tecnológicas

En abril, el National Center on Sexual Exploitation (NCOSE) publicó su «Lista de la Docena Sucia», en la que se detallan las empresas que supuestamente son las que «más contribuyen a la explotación sexual».

Encabezaban la lista tres de las empresas más influyentes del mundo: Apple, Microsoft y Meta.

«Sus productos y políticas también están alimentando sin duda la crisis del abuso sexual infantil y permitiendo la proliferación del abuso sexual basado en la imagen», afirmó Lina Nealon, Vicepresidenta y Directora de Corporate Advocacy de NCOSE.

«En lugar de dedicar los recursos necesarios para prevenir la explotación tanto de niños como de adultos, están priorizando el beneficio y participando en una carrera de IA como heramienta en su beneficio».

Para contrarrestar la propagación de contenido CSAM en línea, el senador Dick Durbin (D-Ill.) presentó la Ley de Fortalecimiento de la Transparencia y las Obligaciones para Proteger a los Niños que Sufren Abuso y Maltrato de 2023 (STOP CSAM Act) en mayo del año pasado.

La ley pretende responsabilizar a las empresas tecnológicas del CSAM permitiendo a las víctimas de explotación sexual infantil interponer una demanda civil contra las empresas que alojan, almacenan o ponen a disposición dicho material.

El proyecto de ley también permite la restitución a las víctimas de explotación infantil y les faculta para pedir a las empresas tecnológicas que retiren el contenido CSAM de sus plataformas. Se impondrán sanciones administrativas a las plataformas que no atiendan las peticiones de retirada.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.