Cada vez son más conocidas las estafas con voces clonadas por inteligencia artificial (IA), un tipo de ciberataque que utiliza esta tecnología para clonar voces, suplantando la identidad de familiares o amigos para engañar a sus víctimas.

Según una encuesta reciente realizada por McAfee, el 77% de las víctimas de esta modalidad de fraude terminaron enviando dinero.

Por esta razón, explicamos todo lo que debes saber para reconocer este tipo de estafas, y no perder grandes sumas de dinero y tus datos privados.

Cómo funciona esta modalidad de robo

Los ciberdelincuentes repocopilan información de las redes sociales u tu otros medios para crear un aspecto artificial parecido a un amigo cercano de la víctima. (Foto: Igor Stevanovic/Getty Images)Los ciberdelincuentes repocopilan información de las redes sociales u tu otros medios para crear un aspecto artificial parecido a un amigo cercano de la víctima. (Foto: Igor Stevanovic/Getty Images)

Este reciente tipo de estafa se inicia con una llamada telefónica en la que los delincuentes usan una voz clonada por IA para hacerse pasar por un conocido.

Normalmente, la llamada simula una situación de emergencia en la que el supuesto familiar o amigo solicita el envío urgente de dinero. Cada vez son más habituales estos engaños, que confunden a las personas con voces de familiares.

Estos fraudes también afectan a las empresas. Los cibercriminales utilizan la clonación de voz para hacerse pasar por superiores o jefes y así convencer a los empleados de realizar transferencias de dinero.

Este método de suplantación resulta ser una combinación de deepfake de voz y robo de identidad, lo cual aumenta su efectividad y la dificultad para detectarlo.

WhatsApp: el foco de interés de los ciberdelincuentes

Por WhatsApp los cibercriminales hacen el primer acercamiento para recopilar audios o información. (Foto: Shutterstock)Por WhatsApp los cibercriminales hacen el primer acercamiento para recopilar audios o información. (Foto: Shutterstock)

La IA ha facilitado a los estafadores acceder a datos personales y a contactos. Necesitan recopilar grabaciones o muestras de voz para replicarlas y llevar a cabo las estafas. A menudo, estos delincuentes también roban cuentas de WhatsApp para ganarse la confianza de las víctimas a través de mensajes previos a las llamadas.

La protección contra estas amenazas requiere entender cómo operan estas tecnologías y ser cautelosos con las solicitudes inesperadas de dinero.

Las estafas con voces clonadas por IA representan uno de los desafíos más recientes en la protección de datos y privacidad, vinculados directamente con la inteligencia artificial.

Este tipo de ciberataque genera alarma porque es difícil de identificar y las consecuencias pueden ser financieramente devastadoras. Por ello, reconocer los signos de una posible estafa resulta fundamental para prevenirla.

Cómo identificar un caso de voz clonada por IA

Se recomienda nunca hacer transferencias de dinero sin saber que la persona que lo recibirá sí es la indicada. (Foto: Pixabay)Se recomienda nunca hacer transferencias de dinero sin saber que la persona que lo recibirá sí es la indicada. (Foto: Pixabay)

Entre los pasos preventivos más recomendados están el verificar la identidad de quien solicita el dinero mediante otra fuente de contacto, como una videollamada o una pregunta cuya respuesta solo conozcan ambas partes.

También, es importante ser cauteloso a la hora de compartir datos personales en redes sociales, pues estos pueden ser utilizados para clonar la voz.

Para aquellos que se encargan de la seguridad en empresas, se recomienda implementar protocolos de verificación más estrictos, como la autorización por escrito de transferencias importantes.

Además, capacitar a los empleados para que reconozcan las señales de fraude y mantengan una comunicación constante entre equipo es vital para prevenir estos ataques.

Cómo protegerte de esta amenaza cibernética

Se debe educar sobre todo a los adultos mayores sobre este tipo de robo para que no sean propensos a esto. (Imagen ilustrativa Infobae)Se debe educar sobre todo a los adultos mayores sobre este tipo de robo para que no sean propensos a esto. (Imagen ilustrativa Infobae)

Una de las principales medidas es verificar la autenticidad de cualquier solicitud de dinero mediante una llamada o contacto por un medio alternativo a la persona que supuestamente necesita la ayuda económica.

Asimismo, es recomendable implementar el uso de una contraseña familiar en caso de menores de edad, y limitar la cantidad de información personal que se publica en redes sociales.

Esta medida incluye controlar la difusión de audios y vídeos y configurar los ajustes de privacidad para que solo los contactos de confianza puedan acceder a la información compartida.

En el ámbito empresarial, es importante capacitar a los empleados sobre las estafas de voces clonadas y qué acciones deben tomar para evitar caer en ellas. Una formación adecuada puede reducir considerablemente los riesgos asociados a estos fraudes.

Nunca se debe enviar dinero sin haber confirmado la identidad de la persona que realiza la solicitud y la veracidad de su historia. Esta precaución es clave para prevenir engaños.

En caso de sospecha de hackeo en aplicaciones de mensajería como WhatsApp, se debe informar inmediatamente a los contactos para que estén alertas ante peticiones dudosas.