Apple anuncia límites a sistema de escaneo de imágenes de abuso sexual infantil tras las reacciones

Por Tom Ozimek
14 de agosto de 2021 2:34 PM Actualizado: 14 de agosto de 2021 6:19 PM

Apple proporcionó el viernes nuevos detalles sobre el funcionamiento de su sistema de detección de material de abuso sexual infantil (CSAM), esbozando una serie de límites para preservar la privacidad tras la reacción de que el software introduciría una puerta trasera en amenaza a la protección de la privacidad de los usuarios.

En un documento de 14 páginas (pdf) en el que se describen las salvaguardias destinadas a evitar que el sistema señale erróneamente pornografía infantil en los dispositivos de Apple o que se aproveche para la vigilancia maliciosa de los usuarios, la empresa respondió a las preocupaciones suscitadas por la prevista función CSAM, que se lanzará junto a una actualización a los usuarios de Estados Unidos a fines de este año.

«El sistema está diseñado para que el usuario no tenga que confiar en Apple, ni en ninguna otra entidad, ni siquiera en un conjunto de entidades posiblemente coludidas de la misma jurisdicción soberana (es decir, bajo el control del mismo gobierno) para estar seguro de que el sistema funciona como se anuncia», dice la empresa en el documento.

La referencia de Apple a las «entidades posiblemente coludidas» parece responder a las preocupaciones planteadas por algunos de que el sistema podría ser abusado, por ejemplo, por regímenes autoritarios, para incriminar falsamente a los opositores políticos.

«Esto se consigue a través de varios mecanismos interconectados, incluyendo la auditabilidad intrínseca de una única imagen de software distribuida en todo el mundo para su ejecución en un dispositivo, un requisito de que cualquier hash de imagen perceptual incluido en la base de datos CSAM encriptada en el dispositivo sea proporcionado de forma independiente por dos o más organizaciones de seguridad infantil de jurisdicciones soberanas separadas y, por último, un proceso de revisión humana para evitar cualquier informe descarriado», añade Apple.

La gente pasa por delante de una tienda de Apple en la ciudad de Nueva York el 13 de julio de 2021. (Angela Weiss/AFP vía Getty Images)

Además de asegurar que la base de datos de las imágenes de abuso sexual infantil que Apple comprobará no está controlada por una sola entidad o gobierno, las otras protecciones técnicas de la compañía contra la incorporación errónea incluyen la elección de un umbral de coincidencia alto para que «la posibilidad de que cualquier cuenta sea marcada incorrectamente sea inferior a una en un trillón». Al mismo tiempo, Apple dijo que el sistema evitaría las violaciones de la privacidad al no conocer nunca ninguna información sobre las imágenes almacenadas en iCloud que no tengan una coincidencia positiva con la base de datos del CSAM.

Otra barrera es un umbral secundario que debe cumplirse comparando los derivados visuales de las imágenes sospechosas contra un «segundo hash perceptual independiente» para que una cuenta sea marcada, un proceso que luego sería seguido por una revisión humana antes de la confirmación final.

«Los revisores tienen instrucciones de confirmar que los derivados visuales son CSAM. En ese caso, los revisores desactivan la cuenta infractora y denuncian al usuario a la organización de seguridad infantil que trabaja con las fuerzas del orden para seguir tratando el caso», declaró Apple.

Otros requisitos de seguridad y privacidad destinados a proteger contra el abuso del sistema incluyen evitar que la base de datos CSAM o el software de comparación sean alterados «subrepticiamente» o que no sea posible apuntar a cuentas de usuario específicas con diferentes bases de datos CSAM encriptadas o con diferentes software que realicen la comparación.

Apple insiste en que las barreras de protección funcionarán en conjunto para evitar los errores humanos y técnicos, así como los ataques contra su algoritmo perceptual, que podrían hacer que las imágenes que no son CSAM superen el umbral de coincidencia y den falsos positivos.

Desde que se conoció la noticia del plan de Apple el miércoles por la noche, miles de personas firmaron una carta abierta criticando el sistema CSAM, afirmando que la «propuesta introduce una puerta trasera que amenaza con socavar las protecciones fundamentales de la privacidad para todos los usuarios de los productos de Apple».

«Expertos de todo el mundo dieron la voz de alarma sobre cómo las medidas propuestas por Apple podrían convertir cada iPhone en un dispositivo que escanea continuamente todas las fotos y mensajes que pasan por él para informar de cualquier contenido objetable a las fuerzas del orden, sentando un precedente en el que nuestros dispositivos personales se convierten en una nueva herramienta radical para la vigilancia invasiva, con poca supervisión para evitar un eventual abuso y una expansión irrazonable del alcance de la vigilancia», dice la carta, que cita a varios expertos en seguridad y privacidad detallando sus preocupaciones.

Uno de los expertos mencionados en la carta, el profesor de la Universidad John Hopkins y criptógrafo Matthew Green, tuvo una reacción mixta ante el anuncio del sistema CSAM de Apple.

«Este tipo de herramienta puede ser una ayuda para encontrar pornografía infantil en los teléfonos de la gente», escribió Green en Twitter. «Pero imagine lo que podría hacer en manos de un gobierno autoritario».

Green dijo que «si cree que Apple no va a permitir que estas herramientas sean mal utilizadas [emoji de dedos cruzados], todavía hay mucho de qué preocuparse», señalando que tales «sistemas se basan en una base de datos de ‘hashes de medios problemáticos’ que usted, como consumidor, no puede revisar».

El experto dijo a The Associated Press que le preocupa que Apple pueda ser presionada por gobiernos autoritarios para escanear otro tipo de información.

Apple se ha opuesto firmemente a la preocupación de que su sistema pueda ser aprovechado por entidades, como los gobiernos, para pisotear la privacidad de los usuarios.

Craig Federighi, vicepresidente senior de ingeniería de software de Apple, dijo en una entrevista a The Wall Street Journal que la privacidad estaría protegida por «múltiples niveles de auditabilidad».

«Nosotros, que nos consideramos absolutamente líderes en materia de privacidad, vemos lo que nosotros estamos teniendo aquí como un avance del estado de la técnica de la privacidad, como algo que permite un mundo más privado», dijo Federighi al medio de comunicación.

La noticia llega en un momento en el que Apple y otras empresas tecnológicas se enfrentan a la presión de los gobiernos y otras entidades para que actúen con mayor decisión en la lucha contra la pornografía infantil.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.