Apple escaneará iPhones en busca de imágenes de abuso infantil, lo que suscita debate sobre privacidad

Por Jack Phillips
05 de Agosto de 2021 8:25 PM Actualizado: 05 de Agosto de 2021 8:33 PM

Apple anunció el jueves que está planeando escanear todos los iPhones de Estados Unidos en busca de imágenes de abuso infantil, lo que hizo saltar la alarma entre los expertos en seguridad, que dijeron que el plan podría permitir a la empresa vigilar decenas de millones de dispositivos personales por razones no relacionadas.

En una entrada de blog, la empresa confirmó los reportes que decían que la nueva tecnología de escaneo forma parte de un conjunto de programas de protección infantil que “evolucionará y se ampliará”. Se desplegará como parte de iOS 15, cuyo lanzamiento está previsto para algún momento en agosto.

Apple, que a menudo se ha promocionado a sí misma como una empresa que promete salvaguardar el derecho a la privacidad de los usuarios, pareció intentar adelantarse a las preocupaciones sobre la privacidad diciendo que el software mejorará esas protecciones al evitar la necesidad de realizar un escaneo de imágenes generalizado en sus servidores en la nube.

“Esta nueva e innovadora tecnología permite a Apple proporcionar información valiosa y procesable a [el Centro Nacional para Niños Desaparecidos y Explotados] y a las fuerzas policiales en relación con la proliferación de CSAM conocido”, dijo la compañía, refiriéndose a un acrónimo de material de abuso sexual infantil. “Y lo hace a la vez que proporciona importantes ventajas de privacidad con respecto a las técnicas existentes, ya que Apple solo se entera de las fotos de los usuarios si tienen una colección de CSAM conocido en su cuenta de Fotos de iCloud. Incluso en estos casos, Apple solo se entera de las imágenes que coinciden con el CSAM conocido”.

El gigante tecnológico con sede en Cupertino dijo que el sistema utilizará una tecnología de criptografía de vanguardia y la inteligencia artificial para encontrar el material de abuso infantil cuando se almacena en iCloud Photos, dijo la firma en su publicación en el blog. Las imágenes se cotejarán con una base de datos conocida de imágenes ilegales, dijo la firma, añadiendo que si un cierto número de esas imágenes se suben a iCloud Photos, la compañía las revisará.

Esas imágenes —si se consideran ilegales— se reportarán al Centro Nacional para Niños Desaparecidos y Explotados. El software no se aplicará a los videos, añadió Apple.

“La ampliación de la protección de los niños por parte de Apple es un gran cambio”, dijo John Clark, presidente y director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados, en un comunicado el jueves sobre la iniciativa. “La realidad es que la privacidad y la protección de los niños pueden coexistir”.

Pero algunos expertos en seguridad e investigadores, que subrayaron que apoyan los esfuerzos para combatir el abuso infantil, dijeron que el programa podría presentar importantes problemas de privacidad.

Ross Anderson, profesor de ingeniería de seguridad de la Universidad de Cambridge, describió el sistema propuesto por Apple como “una idea absolutamente espantosa”, según el Financial Times. “Va a llevar a una vigilancia masiva distribuida de (…) nuestros teléfonos y laptops”, señaló.

Cuando se conoció la noticia de la propuesta el miércoles por la noche, el profesor de la Universidad John Hopkins y criptógrafo Matthew Green repitió esas preocupaciones.

“Este tipo de herramienta puede ser una ayuda para encontrar pornografía infantil en los teléfonos de la gente”, escribió Green en Twitter. “Pero imagine lo que podría hacer en manos de un gobierno autoritario”.

Green dijo que “si crees que Apple no permitirá que estas herramientas sean mal utilizadas [emoji de dedos cruzados] todavía hay mucho de qué preocuparse”, señalando que tales “sistemas se basan en una base de datos de ‘hashes de medios problemáticos’ que usted, como consumidor, no puede revisar”.

El experto dijo a The Associated Press que le preocupa que Apple pueda ser presionada por otros gobiernos más autoritarios para escanear otro tipo de información.

Microsoft creó photoDNA para ayudar a las empresas a identificar imágenes de abuso sexual infantil en Internet, mientras que Facebook y Google han implementado sistemas para marcar y revisar contenidos posiblemente ilegales.

The Epoch Times se ha puesto en contacto con Apple para solicitar comentarios.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.