Demandan a Apple por ignorar contenidos de abuso sexual infantil en iCloud

La empresa dejó de utilizar una herramienta de escaneado de material sexual infantil, alegando que supone un riesgo para la privacidad de los usuarios, señalaba la denuncia

Por Naveen Athrappully
16 de agosto de 2024 6:11 PM Actualizado: 16 de agosto de 2024 6:11 PM

Apple no está haciendo lo suficiente para detener la difusión de material de abuso sexual infantil (CSAM) en sus ofertas de iCloud y iMessage, según acusó el denunciante en una demanda presentada recientemente.

La denuncia, presentada el martes en la Corte de Distrito de EE. UU. del Distrito Norte de California, afirmaba que Apple «sabía que tiene un grave problema de CSAM, pero decidió no abordarlo».

La demanda fue presentada por una menor de 9 años sin identificar a través de su tutor. Entre diciembre de 2023 y enero de 2024, la demandante recibió solicitudes de amistad de dos usuarios desconocidos de Snapchat.

Los desconocidos pidieron al demandante su ID de iCloud, el servicio de almacenamiento de Apple, tras lo cual le enviaron cinco videos CSAM a través de iMessage, el servicio de mensajería instantánea de la compañía. Los videos mostraban a niños de corta edad manteniendo relaciones sexuales. A continuación, los desconocidos pidieron al menor a través de iMessage que grabara videos explícitos.

«Como resultado de esta interacción, el demandante está gravemente lesionado, tanto mental como físicamente. La demandante está buscando psicoterapia y atención en salud mental», dice la demanda.

The Epoch Times se puso en contacto con Apple para pedirle un comentario, pero no recibió respuesta inmediata.

La demanda colectiva propuesta acusaba a Apple de utilizar el pretexto de proteger la privacidad para «mirar hacia otro lado» mientras proliferaba el material sexual infantil en iCloud, señalando el abandono por parte de la empresa de la herramienta de escaneado NeuralHash CSAM.

En 2021, Apple anunció NeuralHash—una herramienta para escanear material sexual infantil en iCloud—para más tarde abandonar el proyecto alegando «graves consecuencias no deseadas para nuestros usuarios», según la demanda, citando un correo electrónico de Apple.

La empresa tecnológica advertía en el correo electrónico que tales iniciativas de escaneado podrían dar lugar a una vigilancia masiva y a la preocupación entre los usuarios de que están siendo examinados por sus puntos de vista políticos o religiosos, lo que podría tener un efecto negativo sobre la libertad de expresión.

En la denuncia se acusaba a la empresa tecnológica de «incurrir en ‘lavado de privacidad’, una táctica de marketing engañosa en la que Apple pregona su compromiso de proteger la privacidad de sus consumidores, pero se olvida de llevar a la práctica de forma significativa sus ideas declaradas».

Según la denuncia, Apple informó «sistemáticamente» de menos casos de CSAM a organismos como el Centro Nacional para Menores Desaparecidos y Explotados (NCMEC).

El año pasado, las principales empresas tecnológicas enviaron más de 35 millones de informes CSAM al NCMEC, mientras que Apple envió 267.

«A pesar de los abundantes recursos de Apple, ésta opta por no adoptar los estándares de la industria para la detección de CSAM y, en su lugar, traslada la carga y el coste de crear una experiencia de usuario segura a los niños y sus familias, como demuestra su decisión de abandonar por completo su herramienta de detección de CSAM», afirma la denuncia.

La denuncia pide a Apple que «invierta y despliegue medios para mejorar de forma integral la privacidad de los usuarios y garantizar la seguridad de los niños usuarios».

CSAM en Apple

Un informe de septiembre de 2023 de la organización sin ánimo de lucro Heat Initiative identificó 93 casos de CSAM en los que estaban implicados productos o servicios de Apple, y la mayoría de las víctimas eran menores de 13 años, según la denuncia. De los 93 casos, 34 implicaban el uso de iCloud para almacenar y distribuir CSAM.

La demanda citaba una entrevista concedida a Forbes por Jon Rouse, un antiguo investigador australiano de abusos a menores, en la que afirmaba que Apple no realiza ningún «escaneo proactivo» de sus productos y servicios para ayudar a las fuerzas de seguridad a contrarrestar la explotación infantil.

En la demanda de Epic Games contra Apple, un empleado de Apple dijo a un colega que el estricto enfoque de Apple en la privacidad la convertía en la «mayor plataforma para la distribución de pornografía infantil», según la demanda, citando mensajes del chat.

La insistencia de Apple en el mantenimiento de la privacidad de los usuarios fue cuestionada en la demanda, que citó un caso comprometedor cuando la empresa transfirió las operaciones de los usuarios chinos de iCloud a una empresa china GCBD en 2018.

Esta acción esencialmente negó la privacidad de los ciudadanos chinos anónimos en una nación reconocida internacionalmente por perseguir a los disidentes.

De acuerdo con la ley de Seguridad Cibernética de China, GCBD está obligada a proporcionar los datos personales de los usuarios a las autoridades chinas a su solicitud. Según la demanda, esto contradice las afirmaciones de Apple de dar prioridad a la privacidad de las personas.

Proliferación de CSAM en plataformas tecnológicas

En abril, el National Center on Sexual Exploitation (NCOSE) publicó su «Lista de los Doce Sucios», en la que se detallan las empresas que supuestamente son las que «más contribuyen a la explotación sexual».

Encabezaban la lista tres de las empresas más influyentes del mundo: Apple, Microsoft y Meta.

«Sus productos y políticas también están, sin duda, alimentando la crisis de abuso sexual infantil y permitiendo la proliferación del abuso sexual basado en imágenes», dijo la vicepresidenta y directora de Defensa Corporativa de NCOSE, Lina Nealon.

«En lugar de dedicar los recursos necesarios para prevenir la explotación tanto de niños como de adultos, están priorizando el beneficio y participando en una carrera armamentista de inteligencia artificial».

Para contrarrestar la propagación de contenido CSAM en línea, el senador Dick Durbin (D-Ill.) introdujo la Ley de Fortalecimiento de la Transparencia y las Obligaciones para Proteger a los Niños que Sufren Abuso y Maltrato de 2023 (STOP CSAM Act) en mayo del año pasado.

La ley pretende responsabilizar a las empresas tecnológicas del CSAM permitiendo a las víctimas de explotación sexual infantil interponer una demanda civil contra las empresas que alojen, almacenen o pongan a disposición dicho material.

El proyecto de ley también permite la restitución a las víctimas de explotación infantil y los faculta para pedir a las empresas tecnológicas que retiren el contenido CSAM de sus plataformas. Se impondrán sanciones administrativas a las plataformas que no atiendan las peticiones de retirada.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí


 

Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.