Tendencias

Estafadores solo necesitan tu TikTok para clonar tu voz con IA y hacerse pasar por familiares

Alertan sobre nuevo fraude con IA que usa voces falsas para engañar a las víctimas y obtener dinero, incluso con solo un video de TikTok.
Por Eduardo Sotomayor
2 minutos

Las autoridades estadounidenses advierten sobre una nueva forma de fraude en la que los delincuentes utilizan voces generadas por inteligencia artificial para hacerse pasar por amigos o familiares y engañar a las víctimas para que les entreguen dinero. Con tan solo un vídeo de TikTok pueden suplantar tu voz.

La suplantación de identidad por teléfono se ha convertido en un delito creciente en los Estados Unidos y todo el mundo. Según la Comisión Federal de Comercio (FTC), en 2022 se registraron más de 36,000 denuncias de personas supuestamente estafadas. En más de 5,000 casos los delincuentes utilizaron la vía telefónica para cometer el delito. Porcentajes similares se ven en otras partes del mundo.

Estafadores pueden usar TikTok para suplantar tu voz

La tecnología está impulsando la exploración de nuevos métodos para estafas. Mientras que en el pasado se requerían muchas horas de grabación para clonar una voz, hoy en día basta con un breve video de TikTok de apenas 30 segundos para lograr reproducciones bastante precisas.

Los padres de Benjamin Perkin cayeron en una estafa telefónica. Un supuesto abogado les dijo que su hijo había atropellado a un diplomático y necesitaba su ayuda. Convencidos de que hablaban con su hijo, mandaron más de 10.000 euros al falso abogado. Solo se dieron cuenta del engaño cuando su hijo les llamó esa misma noche. Han denunciado el caso, pero aún no han recuperado su dinero.

En el caso de Perkins, se cree que los estafadores utilizaron unos pocos videos de YouTube en los que hablaba sobre motos de nieve para poder imitar su voz. Así, se hicieron pasar por él en la llamada telefónica a sus padres.

En España, se han creado empresas como Biometrix Vox que se centran en detectar la autenticidad de la identificación por voz. Este problema es parte de un fenómeno mayor llamado deepfakes. Los deepfakes, que comenzaron como bromas, son ahora un problema serio que se debe abordar.