Clonación de voz con IA: el futuro del fraude que ya está aquí
La clonación de voz mediante inteligencia artificial (IA) ha dejado de ser una mera fantasía de ciencia ficción para convertirse en una preocupante realidad. Con los avances tecnológicos actuales, es posible replicar voces humanas con una precisión asombrosa, lo que plantea serios riesgos de suplantación de identidad y fraude.
Este delito, que ha proliferado gracias a la clonación de voz con IA, se ha vuelto común y accesible para cualquier persona con conexión a Internet. Según un estudio global realizado por McAfee, una de cada diez personas ha recibido mensajes de voz clonada, y el 77% de ellas ha perdido dinero debido a esta tecnología.
La técnica de clonación de voz se basa en el uso de modelos GAN (Generative Adversarial Networks), que consisten en dos redes neuronales que colaboran y aprenden entre sí con objetivos opuestos, perfeccionando el resultado hasta niveles impresionantes. Hoy en día, la voz artificial ha evolucionado significativamente, superando la locución robotizada de asistentes virtuales y aplicaciones de tránsito.
Las voces generadas por IA ahora pueden imitar a la perfección a celebridades, amigos e incluso familiares cercanos. Este fenómeno, conocido como suplantación de identidad a través de clonación de voz, es posible gracias a herramientas y tutoriales gratuitos disponibles en Internet.
Ricardo Robledo, director general y fundador de Tu Identidad, una plataforma dedicada a la validación de identidad, explica que la clonación de voz es un proceso que analiza y copia características únicas de la voz humana, como tono, ritmo, inflexiones y pronunciación. Mediante el uso de GAN, la IA genera voces cada vez más realistas, replicando las sutilezas del habla humana con precisión sorprendente y permitiendo que estas IA mejoren continuamente a través del entrenamiento mutuo para producir voces indistinguibles de las reales.
Un estudio de McAfee reveló que cerca del 70% de las personas no puede distinguir una voz clonada de una real, subrayando la eficacia de la tecnología y la vulnerabilidad de la población ante este tipo de fraude. Además, no se requieren audios extensos para clonar una voz; fragmentos de pocos segundos son suficientes para que las herramientas de IA aprendan y repliquen una voz con exactitud.
Los ciberdelincuentes utilizan estas voces clonadas para realizar llamadas falsas, solicitando dinero o información confidencial y simulando emergencias como accidentes o secuestros. Investigan a las víctimas potenciales, recolectan datos de fuentes públicas y redes sociales, y seleccionan a un familiar o conocido cuya voz clonada utilizan para llevar a cabo la estafa.
Robledo indica que los ciberdelincuentes utilizan la información recopilada para hacer llamadas de emergencia falsas, aprovechando la confianza y el temor de las víctimas.
Para protegerse de este tipo de fraude, Tu Identidad recomienda verificar siempre la identidad de la persona al otro lado de la línea mediante una palabra clave preestablecida o información que solo la supuesta víctima conocería, y evitar compartir videos con la voz real y detalles personales en redes sociales. También aconseja supervisar regularmente las cuentas en plataformas en línea para detectar cualquier actividad inusual y reportar intentos sospechosos de acceso a la información personal.
Finalmente, es crucial mantenerse informado sobre las técnicas de estafa más comunes y las nuevas amenazas relacionadas con la clonación de voz, compartiendo esta información con familiares y amigos para estar alerta y evitar este tipo de fraudes.