Un hombre en China perdió 4,3 millones de yuanes después de ser víctima de un deepfake de un supuesto amigo.
Una estafa en China ha generado preocupación sobre cómo la inteligencia artificial facilita a los hackers obtener información financiera. Según informes, los hackers utilizaron software avanzado de inteligencia artificial para convencer a un hombre en el norte de China de transferir dinero a un amigo, pero en realidad, lo desviaron a una cuenta fraudulenta.
La víctima, con sede en Baotou, en la región de Mongolia Interior, fue engañada mediante el uso de una técnica llamada deepfake, en la cual los hackers recrearon la imagen de su amigo en una videollamada, imitando su rostro y voz. La estafa deepfake hizo que la víctima creyera que estaba transfiriendo 4,3 millones de yuanes para que su amigo hiciera un depósito. Cuando el amigo negó conocer el incidente, la víctima denunció la estafa a las autoridades.
Según Reuters, la policía pudo recuperar la mayor parte de los fondos robados, pero aún está trabajando en recuperar el resto.
En China, el sitio de microblogging Weibo se ha convertido en un foro para discutir el constante riesgo de estafas deepfake. El hashtag "#AI scams are exploting all the country" se hizo viral con más de 120 millones de visitas el lunes. Un usuario escribió: "Esto demuestra que los estafadores pueden utilizar fotos, voces y videos. ¿Pueden las reglas de seguridad de la información mantenerse al día con las técnicas de estas personas?"
Este incidente reciente refleja el aumento significativo de las estafas de inteligencia artificial en todo el mundo. Se han reportado casos de estafadores que utilizan tecnología de IA para replicar voces y obtener dinero a través de llamadas telefónicas. El Departamento de Seguridad Nacional ha publicado un informe que advierte sobre las estafas deepfake y señala que la gravedad y urgencia de la amenaza dependen de la perspectiva de cada individuo. Las preocupaciones van desde considerarla una "amenaza urgente" hasta la recomendación de estar preparados sin entrar en pánico.
El Departamento de Seguridad Nacional afirmó que estos escenarios aumentarán a medida que el costo y los recursos necesarios para producir deepfakes utilizables disminuyan.
Para evitar convertirse en víctimas, el DHS recomienda verificar llamando a la persona que supuestamente solicita dinero y estar alerta ante solicitudes comunes de estafas, como transferencias de dinero, criptomonedas o la compra de tarjetas de regalo donde se proporcionan los números de la tarjeta y los códigos PIN.
Te puede interesar: No te dejes engañar: descubre cómo identificar a personas falsas generadas por inteligencia artificial