Tecnología

Apple 'escaneará' las fotos de los iPhones para detectar abuso sexual infantil

El sistema funcionaría de manera local en el móvil y antes de subir las fotos a iCloud. Aunque persigue combatir esta práctica ilegal, la decisión ha provocado preocupación entre los expertos en privacidad y seguridad

Logo de Apple en una de sus tiendas.
Logo de Apple en una de sus tiendas.

Apple planea instalar un software en los iPhones de EE UU para detectar pornografía infantil. El sistema, según indicó la compañía, comprobará las fotos en los iPhones para buscar coincidencias con conocidas imágenes de abuso sexual infantil antes de que se carguen en su servicio de almacenamiento en la nube iCloud.

El gigante tecnológico añadió que si se detectan suficientes imágenes con ese contenido ilegal, iniciará una revisión humana e informará a las autoridades encargadas de hacer cumplir la ley.

La noticia, que fue avanzada por el Financial Times, ha provocado una alarma entre los investigadores de seguridad que advierten que este movimiento de Apple podría abrir la puerta a la vigilancia de los dispositivos personales de millones de personas. Les preocupa que esta tecnología pueda utilizarse por algunos gobiernos para escanear teléfonos en busca de contenido prohibido o imágenes relacionadas con el activismo político.

Matthew Green, profesor de criptografía de la Universidad Johns Hopkins, fue uno de los primeros en dar la alarma a través de Twitter y apuntó que la herramienta de escaneo de material de abuso sexual infantil de Apple funcionará localmente en los iPhones. Este experto explicó que esta herramienta utilizará algoritmos hash para buscar coincidencias entre las imágenes almacenadas por los usuarios en sus teléfonos y el contenido de pornografía de una base de datos con imágenes conocidas de abuso sexual infantil, lo que implica que los iPhones tendrán que descargarse un conjunto de datos en forma de “huellas” para poder compararlos con las fotos de la galería de los usuarios, informó Gizmodo.

Green indicó, según esta publicación, que los algoritmos que utilizará Apple pueden generar falsos positivos. Sin embargo, la compañía de la manzana defendió que el sistema que incluirán en los iPhones de EE UU está diseñado para reducir los falsos positivos a uno en un billón.

La propuesta parece un intento del gigante tecnológico de encontrar un equilibrio entre dar respuesta a las solicitudes de las fuerzas del orden para ayudar a detener el abuso sexual infantil y la promesa de proteger la privacidad de sus clientes, una máxima que siempre ha defendido la compañía. Otras empresas como Facebook utilizan tecnología similar para detectar y denuncia la pornografía infantil.

Apple ha aclarado que las fotos almacenadas solo en los iPhones no se verifican. Solo cuando un usuario suba una imagen al servicio iCloud, el móvil creará un hash (un código númerico que identifica positivamente la imagen, pero que no se puede utilizar para reconstruirlos), informó Reuters. Un aspecto clave del sistema es que Apple comprueba las fotos almacenadas en los iPhones y no cuando estas llegan a los servidores de la empresa.

"Es una idea absolutamente espantosa, porque conducirá a una vigilancia masiva distribuida de nuestros teléfonos y ordenadores portátiles", dice Ross Anderson, profesor de ingeniería de seguridad de la Universidad de Cambridge, según recoge el FT. También Green cree que la propuesta puede provocar que los gobiernos obliguen a hacer lo mismo a otras compañías.

"Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), es seguro crear sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido", añade este experto. "No importa si tienen razón o no en ese punto. esto romperá la presa; los gobiernos se lo exigirán a todos".

Por su parte, Alan Woodward, profesor de seguridad informática en la Universidad de Surrey, cree que este enfoque "descentralizado es el mejor que podría adoptarse si se sigue este camino". En su opinión, informa el FT, es menos invasivo al realizarse la detección en el teléfono y "solo se envía una notificación si hay una coincidencia".

La nueva propuesta de Apple llegará a finales de este año cuando la compañía lance las nuevas versiones de iOS y iPadOS. El sistema funcionará comparando las imágenes de los móviles con una base de datos de imágenes de abuso sexual infantil compiladas por el Centro Nacional de Niños Desaparecidos y Explotados de EE UU (NCMEC) y otras organizaciones de protección a la infancia.

Normas
Entra en El País para participar