Clonan la voz de un familiar de la víctima con IA para robar dinero. ¿Cómo hacer para detectar que quien te habla es sistema tecnológico que habla como tus familiares?
Nuevas y peligrosas estafas por WhatsApp con ayuda de la IA

Nuevas y peligrosas estafas por WhatsApp con ayuda de la IA-. Un nuevo método de estafas encendió las alarmas de los expertos en ciberseguridad esta semana. Supuestos hackers estarían utilizando la inteligencia artificial para clonar la voz de un familiar cercano de la víctima, para hablarles por WhatsApp y pedir que les hagan una transferencia fraudulenta.

El video se hizo viral en las redes sociales y la supuesta víctima se encuentra en México. Medios de ese país como El Universal, levantaron el registro audiovisual de un usuario de TikTok, que alertó a sus seguidores sobre este presunto mecanismo que hay para realizar estafas por WhatsApp.

Sin embargo, hay un montón de dudas basadas en las irregularidades del mismo video, que actualmente se encuentra en las tendencias de las redes sociales.

En las imágenes, el tiktoker muestra como su madre le envía notas de voz para pedirle que le haga una transferencia de 3.000 pesos mexicanos, una cifra que se encuentra alrededor de los 150 dólares.}

Te puede interesar: Inaugurado evento más grande de inteligencia artificial IA TechDay 2024 en Caracas

La voz, claramente, es similar a la de su mamá, pero el usuario de redes sociales dice que es una inteligencia artificial, ya que tiene a su progenitora al lado, negando que ella haya sido la que le envió dichos mensajes multimedia.

La presunta víctima le continúa el juego al supuesto estafador y le dice que le va a transferir el dinero a la misma cuenta de siempre. La respuesta que obtuvo es de un cambio de cuenta receptora, con la excusa de que no se llevó la tarjeta (suponemos que de débito).

Está bien pensar que la tecnología es una herramienta de la que vamos a sacar provecho todos, incluso los que son ciberdelincuentes. Y aunque es posible que alguien clone tu voz y la use para estafar a tus seres cercanos, este tipo de delitos focalizados son poco comunes en el mundo de la ciberseguridad.

Además, en el video llama la atención que la supuesta víctima tiene el chat agendado como “mamá”, lo que nos haría pensar que la verdadera estafa es que le habrían clonado la cuenta, más allá de la voz.

Es posible que las notas de voz sí sean emitidas por la inteligencia artificial, pero todo tiene pinta de que quien las hizo fue la supuesta víctima para armar este video.

El verdadero peligro es que este tipo de estafas son posibles. El usuario de TikTok, quizás sin intención, lo que hizo fue dar una idea a quienes sí se dedican al fraude digital.

EO// Información de: FayerWayer