Apple abandona polémico plan para espiar fotos en iCloud en busca de material de abuso infantil

La medida había causado un rechazo generalizado entre expertos y la población 

Apple anunció oficialmente que no continuará con una de sus estrategias más polémicas en años reciente: el escanear imágenes almacenadas en su plataforma de iCloud con tal de detectar material explícito de menores de edad. La medida había sido anunciada el año pasado como una nueva función del sistema iOS, la cual estaba diseñada con tecnología avanzada para revisar con cautela las fotos de sus usuarios iCloud en búsqueda del contenido ilegal.

La función se había desarrollado como un escáner que iba a ser capaz de detectar los materiales audiovisuales con menores en situación de abuso. El detector alertaría a técnicos humanos de Apple para que estos a su vez notificaran a las autoridades locales en donde se localizara la cuenta de iCloud comprometida.

En su momento, la noticia causó una rechazo generalizado por parte de los clientes de la empresa del logo de la manzana y por otros consumidores, ya que se criticó que el escáner podía emplearse para espiar otra clase de contenido. Inclusive, se alertó sobre la incorporación de herramientas de escáner en los sistemas iOS, ya que estos podían ser empleados por las autoridades de EUA de manera indiscreta.

Te puede interesar: Cómo crear y personalizar tu avatar en WhatsApp para usarlo como emoji

La medida de Apple fue duramente criticada

 Muchas personas consideraron como una violación a la privacidad la función detectora de Apple. Foto: Ilustrativa. Fuente: Unsplash. 

La compañía encaró con dureza la mala acogida que tuvo su anuncio. Poco después de dar a conocer la medida, Apple tuvo que "posponer" la implementación del escáner hasta nuevo aviso. Hoy, el proyecto ha sido descartado por completo, según dio a conocer la empresa este miércoles dentro de una serie de novedades en materia de seguridad para iCloud, según recopiló Wired:

"Luego de una consulta extensiva con expertos como forma de obtener retroalimentación en la iniciativa para proteger a las infancias que propusimos el año pasado, estamos intensificando nuestra función de Seguridad de Comunicaciones que pusimos disponible en diciembre del 2021. Hemos decidido no seguir con nuestra herramienta de detección para las fotos de iCloud anteriormente propuesta. Las infancias pueden ser protegidas sin que las compañías entremezclen datos personales, y vamos a seguir trabajando con gobiernos, defensores de los menores de edad y otras compañías para seguir protegiendo a la gente joven, preservar su derecho a la privacidad, y hacer un Internet más seguro para las infancias y para todos nosotros en general".

Si bien el gesto de Apple podía indicar buenas intenciones, sirvió para reflejar una tendencia cada vez más creciente de herramientas que aprovechan las cámaras de los dispositivos móviles para escanear o detectar, cada vez más promovidas por compañías tecnológicas. De momento, el consenso generalizado es que los riesgos de la vigilancia de los usuarios a través de sus dispositivos no compensa los beneficios de contrarrestar algún mal social. 

Te puede interesar: WhatsApp para iOS: videollamadas en iPhone ya pueden verse en modo Picture-in-Picture (PiP) para usar otras apps mientras llamas
 

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS