El neuralMatch de Apple ayudará a combatir el abuso infantil

El “neuralMatch” de Apple ayudará a detectar imágenes identificadas como abusos sexuales a menores y escaneará las imágenes antes de que sean subidas a la nube.

Apple ha revelado sus planes para escanear todos los teléfonos iPhone de usuarios que residan en los Estados Unidos, con el unico fin de buscar imágenes de abuso sexual infantil. Esta dinámica ha generado la aprobación de los grupos de protección de los niños, pero por otra parte también preocupa a algunos investigadores en seguridad por la posibilidad de que el sistema se utilice de manera indebida. 

Apple en contra del abuso sexual a menores

La herramienta de Apple que ayudará a detectar imágenes previamente identificadas de abusos sexuales a menores, llamada “neuralMatch”, y escaneará los archivos antes de que sean subidas a iCloud. 

En caso de que la herramienta encuentre algunas coincidencias, la imagen será revisada por el personal de Apple. Si se confirma la existencia de pornografia infantil, se inhabilitará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.

Errores en el algoritmo de Apple

Los padres que tomen fotos inocentes de un niño en la bañera no deben preocuparse. Sin embargo, los investigadores afirman que esta herramienta de cotejo, que no “ve” esas imágenes, sino las “huellas” matemáticas que las representan, podría tener usos más nefastos.

Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría utilizarse para inculpar a personas inocentes enviándoles imágenes en apariencia inofensivas diseñadas para provocar coincidencias con la pornografia infantil. Este comportamiento podría engañar al algoritmo de Apple y alertar a las autoridades. 

“Los expertos son capaces de hacerlo con bastante facilidad”.

También te podría interesar: Windows 11 ya se puede probar en Mac

Espionaje gubernamental

Uno de los mayores temores de internet es la vulnerabilidad a la que están expuestos todos los usuarios, y ahora con el “neuralMatch” será más fácil para el gobierno u otras instituciones puedan espiar desvergonzadamente a sus ciudadanos. 

Aunque la herramienta fue diseñada con las mejores intenciones, la realidad es que puede llegar a representar un riesgo para la privacidad y seguridad de las personas. 

Compañías tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo “huellas digitales” de imágenes previamente identificadas de abusos sexuales a menores. En el caso de Apple ha estado bajo presión gubernamental para que permita una mayor vigilancia de los datos cifrados.

La creación de las nuevas medidas de seguridad le exige a Apple un acto de equilibrismo entre la lucha contra el abuso infantil y el mantener su compromiso de proteger la privacidad de sus usuarios.

Pero la Electronic Frontier Foundation, pionera de las libertades civiles en la red, calificó la medida de Apple en cuanto a las protecciones de la privacidad como “un impactante cambio de rumbo para los usuarios que han confiado en el liderazgo de la compañía en materia de privacidad y seguridad”.

Por su parte, el informático que hace más de una década inventó PhotoDNA, la tecnología utilizada por agencias policiales para identificar la pornografía infantil en internet, reconoció la posibilidad de que se dé un mal uso al sistema de Apple, pero dijo que queda superado con creces por el imperativo de luchar contra los abusos sexuales a menores.

También te podría interesar: ¿Cómo descargar certificado de vacunación Covid-19 por WhatsApp?
 

Por último, Apple dijo que su software “intervendrá” cuando los usuarios intente buscar temas relacionados con el abuso sexual infantil. Para recibir las advertencias sobre imágenes con contenido sexual en los dispositivos de sus hijos, los padres tendrán que inscribir el teléfono de su hijo. 

En el caso de los mayores de 13 años, quienes podrán anular la inscripción en cualquier momento, lo que significa que los padres de los adolescentes no recibirán las notificaciones. 

Apple dijo que ninguna de las dos funciones comprometería la seguridad de las comunicaciones privadas ni notificará a la policía.

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS