Alerta por estafas con inteligencia artificial: cómo los delincuentes clonan voces para engañar
El uso de audios falsos creados con IA se multiplica en WhatsApp y llamadas telefónicas. Los atacantes utilizan fragmentos de redes sociales para imitar a familiares y exigir transferencias urgentes.
La seguridad digital en Argentina ha entrado en una fase crítica donde el eslabón más débil ya no es una contraseña mal elegida, sino la confianza en los vínculos afectivos. Una nueva modalidad de estafa, que utiliza inteligencia artificial (IA) para clonar voces, está generando máxima preocupación por su capacidad de engaño. A diferencia de los antiguos «cuentos del tío», esta tecnología permite que un desconocido suene exactamente igual a un hijo, una pareja o un amigo, explotando el miedo y la urgencia con una precisión escalofriante.
El proceso de clonación: segundos que valen fortunas
Para ejecutar este fraude, los delincuentes no necesitan equipos de alta complejidad ni conocimientos avanzados de programación. Les basta con obtener apenas unos segundos de audio de la víctima potencial. Este material suele recolectarse de publicaciones comunes en redes sociales como Instagram, TikTok o Facebook, donde los usuarios comparten videos hablando sin sospechar que su «huella de voz» está siendo cosechada.
Una vez obtenido el audio, herramientas de IA disponibles en la web procesan la muestra y permiten al estafador escribir un guion que la máquina locuta con el tono, la cadencia y las inflexiones exactas de la persona suplantada. El resultado es un mensaje de WhatsApp o una llamada directa donde se escuchan frases de auxilio o pedidos de dinero por supuestos accidentes o problemas legales.
Ingeniería social y el factor emocional
Los especialistas denominan a esta técnica «ingeniería social». El ataque no se dirige a la razón, sino a los sentimientos más primitivos. Las frases suelen ser cortas y directas: «Me pasó algo», «Necesito que me transfieras urgente» o «No le digas a nadie». El objetivo es anular la capacidad de análisis de la víctima mediante el pánico, logrando que la transferencia bancaria se realice en menos de diez minutos, antes de que el usuario tenga tiempo de verificar la veracidad del pedido.
En Argentina, las denuncias se han incrementado en diversas provincias, revelando que la modalidad también se extiende al uso de deepfakes (videos manipulados). En estos casos, se utilizan rostros de figuras públicas o conocidos para recomendar inversiones fraudulentas o préstamos inexistentes, otorgando una falsa sensación de legitimidad al engaño.
Guía de prevención: cómo protegerse
Ante una tecnología que no parece tener techo en su evolución, la prevención basada en el comportamiento es la herramienta más eficaz. Expertos en ciberseguridad recomiendan:
-
Establecer una «contraseña familiar»: Acordar una palabra o frase secreta y aleatoria que solo el grupo íntimo conozca. Si quien llama no puede decirla, la comunicación debe ser interrumpida inmediatamente.
-
Cortar y llamar directamente: Ante un pedido de ayuda desesperado, la regla de oro es colgar y marcar el número de contacto guardado en la agenda. Esos segundos de verificación pueden evitar una estafa devastadora.
-
Desconfiar del secreto: El pedido de «no le digas a nadie» es una señal de alerta roja. En emergencias reales, la comunicación suele ser abierta para facilitar la ayuda.
-
Gestionar la privacidad en redes: Revisar quién tiene acceso a los videos y audios publicados. Ajustar la privacidad de las cuentas limita el material que los estafadores pueden usar para entrenar a sus modelos de IA.
Conclusión
La inteligencia artificial ha transformado el fraude telefónico en una amenaza de alta fidelidad. La conciencia digital y la desconfianza ante pedidos inusuales de dinero son hoy tan necesarias como cualquier antivirus. En un mundo donde lo que escuchamos ya no es prueba de identidad, la verificación directa y las claves familiares se convierten en la última línea de defensa frente a la delincuencia tecnológica.
