Después de diversas críticas, Apple decidió retrasar la implementación de su sistema de escaneo de imágenes en los dispositivos de su marca. Después de diversas críticas, Apple decidió retrasar la implementación de su sistema de escaneo de imágenes en los dispositivos de su marca.

Apple retrasa el estreno de su detector de pornografía infantil

Después de diversas críticas, Apple decidió retrasar la implementación de su sistema para detectar fotografías de abuso sexual infantil.

Por:  Anneth Marín

Apple desarrolló un sistema para detectar pornografía infantil en las cuentas de iCloud con el propósito de proteger la seguridad de los menores, sin embargo, hubo muchas polémicas respecto a esto en redes sociales, pues se expresó que vulnera la privacidad de los usuarios.

¿Qué es el Sistema de Material de Abuso Sexual Infantil?


El Sistema de Material de Abuso Sexual Infantil (CSAM por sus siglas en inglés) es la herramienta que Apple utilizaría para detectar fotografías de abuso sexual infantil. Funciona a través de un algoritmo que escanea las fotos que los usuarios tienen almacenadas en iCloud desde sus dispositivos iPhone, iPad y Mac para compararlos con imágenes que se encuentran en la base de datos del Centro Nacional para Niños Desaparecidos y Explotados (NCEMEC y determinar si se tratan de pornografía infantil.

¿Por qué es tan polémico el CSAM?

Aunque Apple aclaró que sólo tenía autorización para detectar imágenes de abuso infantil y que esta función no podría ser utilizada para otros fines, muchos expertos expresaron su preocupación de que esta herramienta pudiera ser utilizada para espiar a los ciudadanos. "No importa si tienen razón o no en ese punto. Esto equivale a 'abrir las compuertas'; los gobiernos pedirán esta tecnología", expresó Matthew Green, experto en criptografía de la Universidad Jhons Hopkins.

l programa desarrollado por Apple podría llevar el nombre de “neuralMatch”.

Después de diversas críticas, Apple decidió retrasar la implementación de su sistema de escaneo de imágenes en los dispositivos de su marca. La compañía anunció a través de un comunicado lo siguiente:

basándonos en el feedback de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar aportaciones y hacer mejoras antes de publicar estas prestaciones de seguridad infantil de importancia crítica".

El comunicado de Apple

Apple informó a través de un comunicado cuáles eran las restricciones que el CSAM tendrá para que los usuarios puedan sentirse seguros de que no vulnerará su privacidad.

En primer lugar, anunció que tendrá un aprendizaje automático para avisar sobre el contenido sensible, pero que no tendrán acceso a otros contenidos como el historial de llamadas o los mensajes. En segundo, informó que en iCloud Photos, iOS y iPadOS se usarán nuevas aplicaciones de la criptografía para limitar la difusión de pornografía infantil. Por último, limitarán las funciones de Siri y Search para prevenir que los usuarios busquen imágenes de abuso infantil.

Instituciones como la Electronic Frontier Foundation (EFF) expresaron que la empresa estaba abriendo pie a “abusos más amplios”, pues la herramienta pone en riesgo el escaneo de otras imágenes, no sólo las que pretenden detectar. El CSAM entraría en vigor a finales de 2021, sin embargo, Apple ha decidido retrasar su implementación debido a las críticas.

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS