Apple implementará un sistema que detecta si los usuarios almacenan fotografías relacionadas con abuso sexual infantil en iCloud y suspenderá las cuentas que lo hagan.

Apple checará tus fotos; va contra el abuso sexual infantil

Regeneración, 6 de agosto del 2021. La compañía Apple Inc informó que implementará un sistema nuevo que revisa las fotos almacenadas en los iPhones de Estados Unidos, antes de que se suban al servicio de almacenamiento iCloud, para asegurarse que no sean imágenes relacionadas con abuso sexual infantil.

Esto responde a las solicitudes que los departamentos de policía han hecho a la compañía para detener el abuso sexual en menores y al mismo tiempo respetar las prácticas de privacidad y seguridad.

Hay otras empresas que distribuyen tecnología, como Google de Alphabet Inc, Facebook Inc y Microsoft Corp, que ya cuentan con una base de datos que detectan las fotografías que reproducen el abuso sexual infantil.

¿Cómo funciona el sistema?

Los policías tienen una base de datos en la que recopilan todas las imágenes relacionadas con el delito y las convierten en «hashes», es decir, códigos numéricos que impiden que las fotografías sean reproducidas.

Apple implementó «NeuralHash», una tecnología que utiliza esa base de datos y se
creó para identificar imágenes similares a las originales que fueron editadas. Por ello, cuando un usuario sube una imagen a iCloud el iPhone creará un hash y se comparará con la base de datos.

La compañía podrá suspender las cuentas de los usuarios en los que se encuentren
fotos relacionadas con el delito de abuso infantil y quienes consideren que fue una cancelación indebida, podrán reclamar.

Las únicas fotos que no se analizan son las que se almacenan en el dispositivo. Algunos expertos en privacidad y seguridad expresaron su preocupación por la posibilidad de que el sistema se utilice para obtener otro tipo de información.

¿Se podría utilizar con otros fines?

El investigador de seguridad de la Universidad Johns Hopkins, Matthew Green, dijo
que Apple considera que es seguro implementar el sistema para buscar contenido relacionado con el delito de abuso sexual.

En el caso de India McKinney y Erica Portnoy, de la Electronic Frontier Foundation,
consideraron que esta medida será una sorpresa para los usuarios que confiaron en Apple por ser de las compañías que garantizan mayor seguridad y privacidad.

Asimismo, afirmaron que puede resultar imposible comprobar si la compañía sólo utiliza el nuevo sistema para detectar imágenes ilícitas.