Apple retrasa sus planes de lanzar la detección CSAM en iOS 15

Apple retrasa sus planes de lanzar la detección CSAM en iOS 15 2z6o2n

por Jordi Bercial 1

Apple ha retrasado sus planes de lanzar la detección CSAM (Child Sexual Abuse Material) en iOS 15 tras el recibido con el anuncio de la característica el pasado mes de agosto, citándose que el recibido por clientes, grupos de abogacía, investigadores y otros, ha sido principalmente negativo, como cabría esperar. w6u2y

El sistema de detección CSAM de la compañía permite, a través de los hash de los archivos encriptados, identificar imágenes conocidas como sospechosas de abuso infantil, de modo que funciona más como una base de datos de hashes que como una herramienta que realmente analice el contenido de los terminales de los s de la compañía.

Geeknetic Apple retrasa sus planes de lanzar la detección CSAM en iOS 15 1

Sin embargo, la tecnología NeuralHash ha demostrado tener sus agujeros, y es que algunos investigadores consiguieron, en cuestión de semanas, crear colisiones de hash, algo que implica que una imagen inocua diseñada específicamente para causar problemas a s de la red haría saltar los sistemas de Apple y potencialmente podrían poner a s incautos en situaciones legales complicadas.

En cualquier caso, tal como vemos en iOS 15 sin preocupaciones de falsos positivos ni problemas de privacidad.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Temas Relacionados: iOS 15
Redactor del Artículo: Jordi Bercial

Jordi Bercial 58z66

Ávido entusiasta de la tecnología y la electrónica. Cacharreo con componentes de ordenador casi desde que aprendí a andar. Empecé a trabajar en Geeknetic tras ganar un concurso en su foro sobre redacción de artículos de hardware. Amante del Drift, la mecánica y la fotografía. No te cortes y deja un comentario en mis artículos si tienes alguna consulta.

Comentarios y opiniones sobre: Apple retrasa sus planes de lanzar la detección CSAM en iOS 15 ¿Qué opinas? ¿Alguna pregunta?