
Apple ha retrasado sus planes de lanzar la detección CSAM (Child Sexual Abuse Material) en iOS 15 tras el recibido con el anuncio de la característica el pasado mes de agosto, citándose que el recibido por clientes, grupos de abogacía, investigadores y otros, ha sido principalmente negativo, como cabría esperar. w6u2y
El sistema de detección CSAM de la compañía permite, a través de los hash de los archivos encriptados, identificar imágenes conocidas como sospechosas de abuso infantil, de modo que funciona más como una base de datos de hashes que como una herramienta que realmente analice el contenido de los terminales de los s de la compañía.
Sin embargo, la tecnología NeuralHash ha demostrado tener sus agujeros, y es que algunos investigadores consiguieron, en cuestión de semanas, crear colisiones de hash, algo que implica que una imagen inocua diseñada específicamente para causar problemas a s de la red haría saltar los sistemas de Apple y potencialmente podrían poner a s incautos en situaciones legales complicadas.
En cualquier caso, tal como vemos en iOS 15 sin preocupaciones de falsos positivos ni problemas de privacidad.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!