Apple escaneará automáticamente las fotos del iPhone en busca de pornografía infantil

Los expertos en seguridad advierten que esto podría abrir las compuertas a una vigilancia exhaustiva.

De acuerdo con el medio Financial Times, Apple tiene planeado lanzar un software que escaneará las fotos en sus teléfonos iPhone, esta nueva funcionalidad estará disponible en los estados unidos, con el fin de buscar imágenes de abuso sexual infantil.

El programa desarrollado por Apple podría llevar el nombre de “neuralMatch”, el cual está diseñado para buscar imágenes que se han almacenado en iPhones y se han subido al almacenamiento de iCloud. Si el software detecta abuso sexual infantil en una foto, luego pasará el material a revisores humanos que alertarán a la policía si creen que las imágenes son ilegales.

Sin embargo, los expertos en seguridad advirtieron que esto podría aumentar más allá de buscar imágenes de abuso sexual infantil.

Apple hace de la privacidad un punto de venta, a veces frustrando a la aplicación de la ley

Apple dice que ni siquiera ellos pueden saber qué hay en esas fotografías. A menos, claro, que se cruce un umbral de contenido ilegal conocido. Si el sistema detecta la posibilidad de que haya un contenido significante de imágenes ilegales, se le avisa a Apple y se revisa manualmente el informe para confirmar que hay una coincidencia alta. En ese momento se deshabilita la cuenta del usuario y se envía un informe a las autoridades.

En otras palabras, Apple asegura que no vulneran la privacidad de los usuarios con este nuevo sistema. Para ello sólo analizan imágenes antes de que sean subidas a iCloud y en el dispositivo del usuario. Sólo si el sistema detecta una colección de imágenes de abuso infantil que coinciden con una base de datos ya establecida, comprobarán el contenido y será enviado a las autoridades.

"Nuestro equipo legal revisa las solicitudes para asegurarse de que tengan una base legal válida", escribe Apple en su sitio web . "Si lo hacen, cumplimos proporcionando datos en respuesta a la solicitud. Si una solicitud no tiene una base legal válida, o si la consideramos poco clara, inapropiada o demasiado amplia, impugnamos o rechazamos la solicitud. Informamos en las solicitudes cada seis meses ".

Fotografías difuminadas en Mensajes y ayuda de Siri

Aparte de este sistema de revisión de imágenes, la compañía introducirá una serie de herramientas para proteger mejor a los menores usado el iPhone. Por ejemplo, la app Mensajes detectará automáticamente imágenes sexualmente explícitas y las difuminará. Una alerta saltará y le indicará al niño que puede encontrarse detrás de esa imagen si desea abrirla. Así mismo, se le avisará de que los padres serán avisados y verán la fotografía también.

Así mismo, Siri, el asistente virtual de Apple, ofrecerá ayuda a los usuarios en relación a contendido de abuso sexual a menores. Si el usuario busca cómo reportar contenido de abuso sexual se le llevará a recursos y herramientas para hacerlo. Por otro lado, si el usuario busca contenido de abuso sexual en sí, se le informará de que puede ser dañino y problemático.

También te podría interesar: Twitter: cómo iniciar sesión con tu cuenta de Google y Apple ID

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS