Delincuentes empiezan a clonar voz con Inteligencia Artificial y estafan a peruanos

Delincuentes empiezan a clonar voz con Inteligencia Artificial y estafan a peruanos
Red de Medios Regionales
Red de Medios Regionales
red.mediosregionales@gmail.com
Share on facebook
Share on whatsapp
Share on twitter
Share on linkedin
Share on email
Share on print

La Inteligencia Artificial (IA) está cada vez más presente en nuestras vidas, facilitando muchas tareas y mejorando nuestra calidad de vida. Pero algunas de sus herramientas están siendo mal utilizadas para cometer delitos en diversos países, incluido el Perú.

Una de estas herramientas es la clonación de voces, que ha sido identificada por la Comisión Federal de Comercio (FTC) de los Estados Unidos como una nueva técnica utilizada por estafadores. Con solo 20 segundos de audio, que puede ser extraído de un video en las redes sociales, una persona puede clonar casi a la perfección la voz de otra y generar llamadas telefónicas falsas.

En nuestro país ya habría medio centenar de víctimas, de acuerdo con un reporte publicado en el diario El Comercio.

Los delincuentes suelen llamar desde un número desconocido y hacer creer a las víctimas que están hablando con un familiar en apuros financieros. En la llamada, dicen necesitar dinero para pagar los daños de un accidente automovilístico o un rescate por secuestro. La técnica es tan efectiva que incluso una madre puede no notar la diferencia entre la voz de su hijo y la de una máquina.

ESTAFAS EN AUMENTO

IdentityIQ, una compañía de protección financiera y de identidad, comenzó a recibir informes sobre este tipo de operaciones el año pasado. “La peor parte es que cada semana recibimos más y más llamadas, vemos más víctimas, y la razón es porque es un crimen efectivo”, dijo Scott Hermann, fundador de IdentityIQ.

La FTC tiene algunos consejos para cuando alguien recibe una llamada de un ser querido pidiendo dinero. El más importante es colgar inmediatamente y devolver la llamada a la persona real utilizando un número conocido. También recomiendan no confiar en la voz y verificar la historia con otro miembro de la familia o amigos.

En resumen, aunque la IA tiene el poder de mejorar nuestras vidas, también puede ser utilizada para fines nefastos. Es importante estar informados y tomar precauciones para evitar ser víctimas de estafas como la clonación de voces.

¿CÓMO EVITAR SER ESTAFADO?

Aquí algunos consejos más que pueden evitar de que seas víctima de una estafa.

  • Evita dar información a quien no conozcas: Si recibes una llamada de un número desconocido, no proporciones información personal o financiera. En su lugar, haz preguntas para verificar la identidad de la persona que llama.
  • Verifica la identidad de la persona que llama: Si recibes una llamada de alguien que dice ser un familiar o amigo en apuros, pídele que te revele datos que solo tú conoces. También puedes pedirle que diga una palabra que le cuesta trabajo pronunciar o mandar un mensaje una vez finalizada la llamada.
  • Pide una foto de la ubicación actual: Si tienes la oportunidad, pídele a la persona que te mande una foto de donde se encuentra actualmente. Los estafadores pueden copiar la voz de otra persona, pero no su ubicación en tiempo real.

No proporciones información: En lugar de dar información, busca respuestas. No des datos que los estafadores puedan usar luego en tu contra.

Lee la nota original aquí o visita Investiga, integrante de la Red de Medios Regionales del Perú.