Buscador
Ver revista digital
Actualidad

Así es como Apple detectará imágenes de abuso de menores en sus dispositivos y avisará a la policía

06-08-2021, 9:08:46 AM Por:
© Reuters

El nuevo sistema de Apple busca responder a las solicitudes de los departamentos de policía para ayudar a frenar los abusos sexuales a menores.

Apple Inc dijo el jueves que pondrá en marcha un sistema que comprueba las fotos de los iPhones en Estados Unidos antes de que se suban a su servicio de almacenamiento iCloud para asegurarse de que las subidas no coincidan con imágenes conocidas de abuso sexual infantil.

La detección de subidas de imágenes de abuso infantil suficientes para evitar falsos positivos desencadenará una revisión manual por parte de ejecutivos y un informe sobre el usuario a la policía, dijo Apple. La compañía dijo que el sistema está diseñado para reducir los falsos positivos a uno entre un billón.

El nuevo sistema de Apple pretende responder a las peticiones de los departamentos de policía para ayudar a frenar los abusos sexuales a menores, respetando al mismo tiempo las prácticas de privacidad y seguridad que son un principio básico de la marca de la empresa. Pero algunos defensores de la privacidad dijeron que el sistema podría abrir la puerta a la vigilancia de la expresión política u otros contenidos en los iPhones.

La mayoría de los otros grandes proveedores de tecnología, incluyendo a Google de Alphabet Inc, Facebook Inc y Microsoft Corp, ya están cotejando las imágenes con una base de datos de imágenes ya registradas de abuso sexual infantil.

“Con tanta gente que utiliza los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo seducidos en línea y cuyas horribles imágenes están circulando en material de abuso sexual infantil”, dijo John Clark, director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados, en un comunicado. “La realidad es que la privacidad y la protección de los niños pueden coexistir”.

Así es como funciona el sistema de Apple: los agentes de las policías mantienen una base de datos de imágenes conocidas de abusos sexuales a menores y traducen esas imágenes en “hashes”, es decir, códigos numéricos que identifican positivamente la imagen pero que no pueden utilizarse para reconstruirlas.

Apple ha implementado esa base de datos utilizando una tecnología llamada “NeuralHash”, diseñada para captar también imágenes editadas similares a las originales. Esa base de datos se almacenará en los iPhones.

Cuando un usuario suba una imagen al servicio de almacenamiento iCloud de Apple, el iPhone creará un hash de la imagen a subir y lo comparará con la base de datos.

Las fotos almacenadas sólo en el teléfono no se comprueban, dijo Apple, y la revisión manual antes de denunciar una cuenta a las fuerzas del orden está destinada a garantizar que las coincidencias sean auténticas antes de suspender una cuenta.

Apple dijo que los usuarios que consideren que su cuenta ha sido suspendida indebidamente pueden apelar para que se les restablezca.

El Financial Times informó anteriormente sobre algunos aspectos del programa.

Una característica que distingue al sistema de Apple es que comprueba las fotos almacenadas en los teléfonos antes de subirlas, en lugar de comprobarlas después de que lleguen a los servidores de la compañía.

En Twitter, algunos expertos en privacidad y seguridad expresaron su preocupación por la posibilidad de que el sistema se amplíe para escanear los teléfonos de forma más general en busca de contenidos prohibidos o discursos políticos.

Apple ha “enviado una señal muy clara. En su (muy influyente) opinión, es seguro construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido”, advirtió Matthew Green, investigador de seguridad de la Universidad Johns Hopkins.

“Esto romperá el dique: los gobiernos lo exigirán a todo el mundo”.

Otros investigadores de la privacidad, como India McKinney y Erica Portnoy, de la Electronic Frontier Foundation, escribieron en un blog que puede ser imposible para los investigadores externos comprobar si Apple cumple sus promesas de comprobar sólo un pequeño conjunto de contenidos en el dispositivo.

La medida es “un giro sorprendente para los usuarios que han confiado en el liderazgo de la empresa en materia de privacidad y seguridad”, escribieron ambos.

“Al final del día, incluso una puerta trasera bien documentada, cuidadosamente pensada y de alcance limitado sigue siendo una puerta trasera”

escribieron McKinney y Portnoy. 

LEE:

autor Agencia de noticias con sede en Reino Unido.
Comentarios