Apple quiere hacer frente al abuso infantil con diferentes sistemas de control que estén integrados en la propia fototeca. Esto es un asunto realmente complicado de comentar ya que puede atentar contra la privacidad de los usuarios. En este artículo te contamos todos los detalles del nuevo hash de rastreo que Apple planearía integrar en el sistema operativo.
Así funcionaría el hash de rastreo de Apple
El abuso infantil es sin duda un problema a nivel global contra el que se debe luchar con todas las herramientas necesarias. Apple quiere poner su grano de arena con las herramientas necesarias para poder buscar pornografía infantil. Esto es algo que se ha hecho público en diferentes informes no siendo oficial, aunque todo apunta a que finalmente se anunciará en las próximas semanas. Este sistema se instalará en el cliente del dispositivo en el apartado de privacidad. Se descargarán un conjunto de huellas digitales que representan contenido ilegal para poder verificar cada fotografía que hay en la galería. Posteriormente se pasará a una revisión manual para no dejar una decisión tan importante en manos de un simple algoritmo.
Estas técnicas no son nuevas dentro del ecosistema. Ahora mismo se utilizan en la biblioteca de iCloud para poder categorizar las fotografías dependiendo del contenido de estas. Es por ello que toda la revisión se hará siempre en el dispositivo y no en los servidores de la compañía tratando de garantizar la privacidad y la seguridad. Aunque siempre se podrá evitar que iCloud almacene tus fotografías, algo que bloquearía este sistema. Además estas herramientas pueden mejorar las funciones de aprendizaje automático que ya están implementadas ofreciendo una experiencia general mucho más adecuada. Si bien, aunque todas estas funciones están encaminadas a hacer una lucha contra la pornografía infantil hay que tener en cuenta la legislación de cada uno de los países en lo que respecta a política de privacidad de datos. También será determinante los cauces legales que se deberán seguir cuando haya una coincidencia positiva en alguna de las fotografías.
No es un sistema infalible ni perfecto
Los expertos en seguridad han hecho diferentes declaraciones tras conocerse estos informes, afirmando que este sistema no es infalible. En muchas ocasiones los algoritmos de hash pueden dar un falso positivo ya que detectar una imagen como pornografía infantil puede ser algo complejo de realizar debido a la gran diversidad de imágenes que pueden existir. También se deben estudiar las implicaciones geopolíticas que puede llegar a tener este sistema de algoritmos. Hay que tener en cuenta que la información se pondrá a disposición de los gobiernos y es por ello que se puede utilizar para otras tareas como por ejemplo para suprimir el activismo político de aquellos países donde no hay una democracia plena.
También se debe tener en cuenta que actualmente las fotografías que se suben a iCloud para realizar copia de seguridad no se encriptan como tal, sino que se almacenan de manera cifrada. Apple siempre puede proporcionar las claves para descifrar este contenido a algún gobierno y que visualicen toda la biblioteca de un usuario en concreto, aunque es algo que ocurre en todos los servicios. Pero como hemos mencionado anteriormente esta es una primera idea que se ha recogido en un informe. Esto significa que puede cambiar radicalmente a cuando se termine anunciando de manera oficial.