Esta Inteligencia Artificial puede hacer que una foto antigua imite tus movimientos Esta Inteligencia Artificial puede hacer que una foto antigua imite tus movimientos

Esta Inteligencia Artificial puede hacer que una foto antigua imite tus movimientos

Speaking Portrait tiene la capacidad de hacer que las fotos inanimadas se muevan y hablen siguien un vídeo original, un clip de audio o incluso un archivo de texto con un guión escrito.

La aplicación Deep Nostalgia de la compañía MyHeritage es conocida por tener la capacidad de dar vida a fotografías antiguas.  Ahora, la compañía que desarrolla la inteligencia artificial detrás de Deep Nostalgia, D-ID, llevará su tecnología a otro nivel, agregando movimiento a las personas en vídeos que se mueven como quieras.

¿Cómo funciona Deep Nostalgia?

La aplicación de MyHeritage permite que subas una foto de una persona y el algoritmo analiza su orientación para determinar en qué dirección miraban la cabeza y los ojos. Entonces seleccionaba un vídeo coincidente en una pequeña colección de ‘vídeos conductores’ y lo usaba como referencia para crear los movimientos generados por la IA. 

Aunque esta función es interesante, hay que admitir que cuenta con una funcionalidad limitada, ya que los usuarios no tienen control sobre los movimientos del video generado y el sujeto no hacía ningún intento de hablar.

En el reciente TechCrunch Disrupt 2021, D-ID reveló una versión más avanzada de Deep Nostalgia llamada Speaking Portraits, que puede hacer que las fotos inanimadas se muevan y hablen siguiendo un vídeo original, un clip de audio o incluso un archivo de texto con un guión escrito.

Speaking Portrait estará disponible en dos versiones diferentes:

Speaking Portrait: en lugar de una foto fija, requiere un vídeo de 10 minutos de la persona animada realizando un conjunto específico de movimientos y diciendo ciertas cosas, según lo definido por un conjunto de directrices que ha creado D-ID.

Los resultados son mucho más realistas y creíbles que lo que produce el Single Portrait, que muestra signos de deepfake, incluidos los bordes borrosos y artefactos de deformación inusuales en la cara. Trained Character también ofrece la flexibilidad adicional de cambiar el fondo y el potencial de animar el cuerpo de la persona, como los brazos y las manos.

La tecnología de Speaking Portrait es superior a Deep Nostalgia, además de garantizar que las agencias de noticias siempre tengan un presentador “en vivo” disponible para las últimas noticias, incluso en mitad de la noche. 

Te podría interesar: Dragon Ball Z: Inteligencia artificial crea una versión hiperrealista de los personajes

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS