Apple reveló sus planes para escanear los iPhones de Estados Unidos en busca de imágenes de abuso sexual infantil, lo que generó aprobación de los grupos de protección de los niños, pero preocupación de algunos investigadores en seguridad por la posibilidad de que el sistema se utilice de forma indebida.
La herramienta diseñada para detectar imágenes previamente identificadas de abusos sexuales a menores, llamada “neuralMatch”, escaneará las imágenes antes de que sean subidas a iCloud. Si encuentra una coincidencia, la imagen será revisada por una persona. Si se confirma la existencia de pornografía infantil, se inhabilitará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.
El sistema sólo marcará las imágenes que ya estén registradas en la base de datos de pornografía infantil del centro. Los padres que tomen fotos inocentes de un niño en la bañera no deben preocuparse. Sin embargo, los investigadores afirman que esta herramienta de cotejo —que no “ve” esas imágenes, sino las “huellas” matemáticas que las representan— podría tener usos más nefastos.
Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría utilizarse para inculpar a personas inocentes enviándoles imágenes en apariencia inofensivas diseñadas para provocar coincidencias con la pornografía infantil. Eso podría engañar al algoritmo de Apple y alertar a las autoridades. “Los expertos son capaces de hacerlo con bastante facilidad”, dijo.
Otros abusos de la herramienta podrían incluir el espionaje gubernamental a disidentes o manifestantes. ”¿Qué pasa cuando el gobierno chino dice: ‘Aquí hay una lista de archivos que queremos que escanees’?”, preguntó Green. ”¿Apple dice que no? Espero que diga que no, pero su tecnología no dirá que no”.
Compañías tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo “huellas digitales” de imágenes previamente identificadas de abusos sexuales a menores. Apple las ha utilizado para escanear los archivos que los usuarios almacenan en su servicio iCloud, que no está tan encriptado como los datos de sus dispositivos, en busca de pornografía infantil.
La empresa ha estado bajo presión gubernamental para que permita una mayor vigilancia de los datos cifrados. La creación de las nuevas medidas de seguridad le exige a Apple un acto de equilibrismo entre la lucha contra el abuso infantil y el mantener su compromiso de proteger la privacidad de sus usuarios.
Pero la Electronic Frontier Foundation, pionera de las libertades civiles en la red, calificó la medida de Apple en cuanto a las protecciones de la privacidad como “un impactante cambio de rumbo para los usuarios que han confiado en el liderazgo de la compañía en materia de privacidad y seguridad”.