¿El fin del periodismo? Este noticiero está hecho por completo con Inteligencia Artificial

En su contenidos ofrecen desinformación, errores ortográficos y comportamientos humanos inquietantes

Una compañía especializada en detectar noticias falsas y otras formas de desinformación en la red llamada Graphika lanzó un reporte el jueves en donde se revela qué tan lejos han llegado las tecnologías "deepfake" para diseminar esta clase de mentiras en la red.

Uno de sus descubrimientos más ilustrativos son los contenidos generados bajo una marca ficticia, llamada "Wolf News", medio enfocado en distribuir propaganda que recurre a programas basados en Inteligencia Artificial para crear un noticiero completamente generado por computadora.

Desde los locutores hasta los videos y guiones, cada aspecto de las producciones de Wolf News está constituido artificialmente. Sus presentadores consisten en "Jason" y "Anna", avatares digitales ofrecidos por la empresa Synthesia, compañía que ofrece software deepfake por 30 dólares mensuales.

Pese a que Synthesia establece en sus términos restricciones sobre el tipo de contenido que se debe generar con su tecnología, las medidas para prevenir mal uso no son tan efectivas. Fuente: Captura de pantalla de Internet. 

Te puede interesar: Cómo ocultar tus publicaciones viejas y actuales de Facebook a amigos y familiares

Así es como se crea la mentira

Synthesia actualmente ofrece 85 personajes que están modelados a partir de actores humanos reales que varían en diversos factores como edad, género, etnicidad, tonos de voz y vestimenta. Los interesados también pueden formar avatares digitales de sí mismos o de cualquier otra persona que ceda los derechos de su imagen para que la tecnología genere materiales audiovisuales.

Los productos de Synthesia se ofrecen como herramientas para ahorrar recursos y tiempo, como por ejemplo para crear videos empresariales donde se aborden temáticas de recursos humanos.

Los contenidos generados con Synthesia y otros softwares potenciados por IA cuentan con numerosas imperfecciones que delatan su naturaleza artificial, como avatares hablando por tiempos largos de tiempo en tonos monótonos, expresiones faciales rígidas o inexistentes, audios desfasados y movimientos irreales, como parpadeos demasiados lentos.

Sin embargo, esto no impide que los interesados acudan por esta clase de recursos. Como el sector de las tecnologías basadas en IA está en auge y en constante evolución, Graphika advirtió en su estudio que se deben instaurar mecanismos para regular estas prácticas, ya que representan un riesgo latente para diseminar información falsa o con fines concretos en la red, a merced de los internautas. 

Te puede interesar: Noam Chomsky critica a ChatGPT como un "plagio" con tecnología avanzada y una forma de evitar el aprendizaje

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS