Expertos advierten los peligros de la tecnología 'Deepfake'

La tecnología Deepfake permite que cualquiera con un teléfono inteligente pueda crear videos engañosos.

La tecnología Deepfake se está popularizando y llegando a cualquier persona con un teléfono inteligente en sus manos, con la posibilidad de crear videos engañosos donde la cara de un individuo puede superponerse en la de otro, simulando estar diciendo o haciendo algo que jamás haría. 

Este tipo de vídeos engañosos son creados a través de una inteligencia artificial que reemplaza la cara de una persona por la otra, y son tan verosímiles que es casi imposible darse cuenta de que son falsos.

Un arma de doble filo 

La tecnología deepfake puede ser verdaderamente útil al momento de ahorrar costo en la producción de una película, en donde se pueda prescindir de actores reales para las secuencias más peligrosas. Pero en las manos equivocadas, pueden convertirse en una herramienta para desinformar de una forma mucho más sofisticada que las mentiras falsas al uso.

Las imágenes falsas producidas por la tecnología deepfake, pueden poner palabras en la boca de un presidente que inviten al desorden público, o desprestigiar a activistas haciéndoles aparecer en falsos videos pornográficos.

Dificultad para diferenciar lo falso y lo verdadero

Varios expertos creen que la tecnología Deepfake ya está lo suficientemente avanzada como para que los espectadores tengan dificultades para distinguir muchos videos falsos de la realidad. A su vez, este tipo de tecnología ha proliferado hasta el punto de estar al alcance de casi cualquier persona que tenga un smartphone.

“Una vez que el punto de entrada es tan bajo que no requiere ningún esfuerzo, y una persona poco sofisticada puede crear un video pornográfico ultrafalso, sofisticado y no consentido, ese es el punto de inflexión”. Esto dijo Adam Dodge, abogado y fundador de la empresa de seguridad en línea EndTab.

“La gran, gran mayoría de los daños causados por los ‘deepfakes’ en este momento es una forma de violencia digital de género”, dijo Ajder. Él es uno de los autores del estudio y el jefe de políticas y asociaciones de la compañía de IA Metaphysic. Ajder dijo que su investigación mostró que millones de mujeres han sido atacadas en todo el mundo.

En consecuencia, hay una “gran diferencia” entre que una aplicación se comercialice explícitamente como una herramienta pornográfica o no, dijo.

Muchos activistas de la seguridad en línea, investigadores y desarrolladores de software afirman que la clave está en garantizar el consentimiento de quienes son simulados; sin embargo, esto es más fácil de decir que de hacer. Algunos abogan por adoptar un enfoque más estricto en lo que respecta a la pornografía sintética, dado el riesgo de abuso.

Crecimiento del 900%

La empresa emergente Sentinel identificó desde 2019 un crecimiento del 900 % de los “deepfakes”, cuando se pasó de unas 14,500 a 145,000. La mayoría fueron compartidos en redes sociales y tuvieron cerca de 6,000 millones de visualizaciones.

El crecimiento acelerado se debe a que cada vez es más fácil crearlas. EFE analizó un “deepfake” de la activista climática Greta Thunberg en el que aparece desnuda. Las imágenes manipuladas habían sido creadas con una aplicación para el móvil, según confesaba el autor anónimo en la descripción del video.

Mientras los países siguen debatiendo su regulación, los expertos insisten en la importancia de la cibereducación y del desarrollo de programas que los identifiquen.

Te puede interesar: ¿Ya conoces al robot inspirado en Astroboy?

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS