La compañía utilizará un sistema automatizado en una primera instancia. Cuando una cierta cantidad de archivos sean señalados como sospechosos permitirá que un equipo humano examine el contenido.
Apple tiene planeado escanear todas las imágenes almacenadas en iCloud y los iPhones para detectar la presencia de material relacionado con el abuso infantil.
El sistema que utilizará para esta tarea se conoce como neuralMatch y será el encargado de alertar a un equipo de examinadores cuando detecte una imagen sospechosa. Si en esta instancia se confirma lo apuntado por este mecanismo se contactarán a las autoridades locales.
NeuralMatch fue entrenado con más de 200 mil imágenes del Centro Nacional para los Niños Perdidos y Explotados.
Primera etapa El sistema será implementado primero en los Estados Unidos.
Todas las fotos que se suban a iCloud en este país serán clasificadas como seguras o sospechosas. Cuando una cantidad suficiente de archivos de una misma cuenta son marcadas como sospechosas Apple habilitará el desencriptado del material. En ese momento pasarán a manos del equipo de revisión ya mencionado.
Luces y sombras Como herramienta para luchar contra el abuso infantil esta opción ha sido muy bienvenida. Sin embargo existe preocupación de que la herramienta sea mal utilizada. Todo depende del grado de confianza que se le tenga a Apple para no ceder ante las demandas de regimenes totalitarios que podrían emplear neuralMatch para vigilar expresiones contrarias a sus ideales.
Otro aspecto delicado es el hecho de que el sistema fue construido con una base de datos a la que, con cierta lógica, el usuario no puede acceder.
Apple ha impulsado la defensa de la privacidad como uno de sus valores desde hace ya un buen tiempo. Sin embargo, como tantas otras empresas del sector, a menudo se ha topado con los mismos dilemas vinculados a la seguridad y el mal uso de las herramientas informáticas.