Alerta por estafas en WhatsApp: usan la inteligencia artificial para clonar voces

Tecnología 10 de junio de 2024
Los estafadores utilizan un software de deepfake para crear audios falsos que imitan la voz de la víctima. La Dirección Inteligencia Criminal recomendó cómo protegerse y a qué estar atentos.

El cuento del Tío usando Inteligencia Artificial

Las estafas en plataformas digitales se realizan de forma cada vez más sofisticada, lo que hace que a veces es casi imposible darse cuenta. A los intentos de fraudes por WhatsApp que se realizan desde números desconocidos procedentes de la India, Indonesia o Senegal, ahora surgen nuevas amenazas por estafas con voces de seres queridos creadas gracias a la Inteligencia Artificial (IA).

Mediante el uso de esta tecnología, los estafadores clonan las voces de personas conocidas para realizar engaños a través del popular mensajero. La nueva modalidad se agrega a otros intentos de fraude, como el phishing o la suplantación de identidad, lo que supone un verdadero peligro.

Los estafadores utilizan un software de deepfake para crear audios falsos que imitan la voz de la víctima. Para ello, recopilan varios fragmentos de audio de la persona en cuestión, ya sea a través de sus redes sociales, llamadas telefónicas o grabaciones filtradas.

Un deepfake es un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona. También llamados "medios sintéticos", son tan convincentes a la hora de imitar lo real que pueden engañar tanto a las personas como a los algoritmos. Sus formas más comunes de aplicación son en videos o filtros de realidad aumentada.

"Deepfake" como término proviene de la combinación de las palabras "deep learning" y "fake", para representar algo falso que es resultado de la tecnología de aprendizaje profundo.

Una vez que tienen la voz clonada, los estafadores se contactan con la víctima por WhatsApp, haciéndose pasar por un familiar, amigo o incluso una empresa de confianza. Mediante un tono convincente y usando frases o expresiones que solo la víctima y la persona real conocerían, logran engañarla para que revele información personal, como datos bancarios o claves de acceso.

ARCHI_1115740

Cómo protegerse

Además de las recomendaciones especiales brindadas por la Dirección Inteligencia Criminal de la Policía de Entre Ríos, que ya había advertido semanas atrás de esta posibilidad en la ejecución de Cuentos del Tío (ver video), se aconseja:

No compartir información personal: nunca hay que proporcionar datos bancarios, contraseñas ni ningún otro tipo de información sensible.

Verificar la identidad del contacto: llamar a la persona que dice ser o enviarle un mensaje de texto desde otro número para confirmar su identidad.

Denunciar el número: reportar el número telefónico a WhatsApp para que sea bloqueado y evitar que otras personas sean víctimas de la estafa.

Cuidado con lo que se comparte en las redes sociales: no publicar información personal o privada, ya que puede ser utilizada por los estafadores para crear deepfakes más convincentes.

Nunca compartir información personal con personas desconocidas o que no puedas identificar plenamente.

Mantener tus dispositivos actualizados, como el celular, la tablet o la computadora: las actualizaciones de software suelen incluir parches de seguridad que pueden protegerte de este tipo de ataques.

Denunciar las estafas: si fuiste víctima de una estafa, es urgente enviar el reporte a las autoridades correspondientes para que se tomen las medidas necesarias. Por ejemplo, si caíste en una estafa bancaria, deberás denunciar el caso a tu banco lo más pronto posible. En este tipo de casos, las entidades financieras suelen atender las 24 horas.

Cadena 3

Más de Estación Plus Crespo

Estación Plus Noticias en tu E-Mail

Ingresá tu E-Mail y recibí diariamente las noticias de Estación Plus Crespo

mensaje

Más de Estación Plus Crespo

Plus facebook

Próximos días en Crespo

Otras noticias en Estación Plus Crespo: