Recientemente se han dado casos de estafas que utilizan deepfakes de audio. Con ellos, los ciberdelincuentes imitan la voz de un ser querido de la víctima para pedirle dinero de forma urgente.
¿Qué son los deepfakes de audio?
Los deepfakes de audio, también llamados deepvoices, son un tipo de inteligencia artificial con el que se suplanta la voz de una persona en un audio, para que parezca que diga cosas que, en realidad, no ha dicho.
En este caso, los ciberdelincuentes han utilizado los deepfakes de audio para hacerse pasar por un ser querido de las víctimas. De esta forma, la persona cree que un familiar o amigo le está pidiendo un favor importante y cae en la trampa.
Con el avance de la tecnología, los simuladores de voz cada vez son más realistas y consiguen engañar más a las víctimas.
Caso real de deepfake de audio
The Washington Post ha hablado recientemente sobre este tema y ha puesto un ejemplo real de una mujer de 73 años que recibió una llamada, supuestamente, de su nieto. Éste le comentaba que se encontraba en la cárcel sin teléfono ni tarjeta y que necesitaba dinero para la fianza.
Al escuchar esto, la mujer decidió ir al banco con su marido y retirar 3.000 dólares canadienses. A continuación, se dirigían hacia otra oficina para introducir el dinero en otra cuenta cuando el director de la entidad se dio cuenta de lo que estaba pasando.
Les avisó de que estaban siendo víctimas de un deepfake de audio y que otros clientes también lo habían sido. Estas personas pudieron salvarse del fraude, pero no siempre ocurre así.
La inteligencia artificial puede ser utilizada para cometer estafas
Muchas estafas están relacionadas con el uso fraudulento de la IA, como los deepfakes de audio. En algunos casos, los ciberdelincuentes han llegado a robar hasta 35 millones de dólares con la utilización de este instrumento de forma maliciosa, ya que consiguen parecer muy realistas. Esto provoca que los usuarios no se den cuenta del fraude y caigan en la trampa.
Pero no todos los avances en Inteligencia Artificial son malas noticias. Ésta nos otorga grandes beneficios como la automatización de los procesos, el aporte de precisión, la reducción del error humano, la reducción del tiempo empleado en ciertos procesos, etc.
Consejos para evitar los deepfakes de audio
Como conclusión, vamos a ver algunos consejos para evitar caer en los deepfakes de audio o similares.
Lo mejor para estar seguros de que la persona que nos pide dinero (generalmente) es quien dice ser, es llamar al número real de esa persona. Aunque aseguren de que no tienen acceso a su número de teléfono, esto puede ser mentira.
Otro punto importante es fijarse en posibles distorsiones o fallos con los que nos demos cuenta de que se trata de un audio falso y, por lo tanto, un fraude.