Apple detiene su plan para escanear fotos de abuso sexual infantil en iPhones

Por Li Hai
03 de septiembre de 2021 10:24 PM Actualizado: 03 de septiembre de 2021 10:24 PM

Apple ha decidido retrasar su plan de escanear iPhones o iPads en busca de imágenes de abuso sexual infantil para «proteger a los niños» tras enfrentar un gran rechazo.

«Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica», anunció Apple en su sitio web el viernes.

El 5 de agosto, Apple declaró un plan «ambicioso» de «Protecciones ampliadas para los niños». El gigante tecnológico con sede en Cupertino dijo que introduciría nuevas funciones de seguridad infantil en tres áreas, de las cuales la función para detectar material de abuso sexual infantil en iPhones y iPads es la más controvertida.

El programa de Apple utilizará tecnología de criptografía de vanguardia e inteligencia artificial para encontrar material de abuso cuando se almacena en iCloud Photos. Las imágenes ilegales serán reportadas al National Center for Missing & Exploited Children, dijo el gigante tecnológico en ese momento.

Un teléfono en una foto de archivo. (Loic Venance/AFP vía Getty Images)

El 14 de agosto, Apple anunció más detalles sobre cómo funcionaría el sistema de detección de material de abuso sexual infantil, diciendo que «la posibilidad de que una cuenta determinada se marque incorrectamente es inferior a uno en un billón».

La base de datos de imágenes de abuso sexual infantil que Apple verificaría no está controlada por una sola entidad o gobierno, agregó Apple.

El plan de Apple generó casi de inmediato fuertes críticas de expertos en seguridad, grupos de derechos humanos, defensores de las libertades civiles y otros por preocupaciones de que representaría una amenaza para la privacidad, la seguridad, la libertad y abriría las puertas a una mayor vigilancia del gobierno.

«Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los celulares de las personas», escribió en Twitter el profesor y criptógrafo de la Universidad John Hopkins Matthew Green, un crítico abierto de Apple, cuando se presentó el plan. «¿Pero imagina lo que podría hacer en manos de un gobierno autoritario?»

Green apoyó el retraso del programa.

Según se reporta, Apple habría hecho compromisos con el régimen comunista chino para mantener su negocio en China.

Por ejemplo, Apple trasladó los datos de sus clientes chinos a un centro de datos con sede en China operado por las autoridades chinas, según los requisitos del régimen. En 2018, Apple entregó las claves digitales para estos datos a China, informó The New York Times en mayo.

Expertos en seguridad independientes e ingenieros de Apple dijeron que eso haría casi imposible evitar que el régimen chino acceda a estos datos.

Sin embargo, Apple dijo que «nunca había comprometido la seguridad de nuestros usuarios o sus datos en China o en cualquier lugar donde operamos». Apple también dijo que su tecnología de cifrado en China es la más avanzada y nunca se ha utilizado en otros países.

The Epoch Times se ha puesto en contacto con Apple para solicitar comentarios.

Con información de Jack Phillips y Tom Ozimek.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.