Estafas con la voz de Goku en redes sociales: ¿Cómo evitar caer en el engaño?
En temas de ciberseguridad jamás se debe decir: “nunca caeré en eso”. Por ilógico que suene el intento de ataque todos somos vulnerables y los delincuentes siempre encuentran la manera de generar una conexión para que caigamos. Un ejemplo de todo esto es una parodia de una supuesta ayuda que pide Goku, de Dragon Ball, para salvar a Vegeta.
En redes sociales se ha hecho viral un video en el que supuestamente Goku envía un mensaje para recoger dinero y ayudar a Vegeta en algún problema en el que está. La petición es poner en los comentarios el número de tarjeta de crédito, junto a la fecha de vencimiento y los tres dígitos de seguridad.
Aunque todo se trata de una broma y una exageración de lo que puede suceder en un caso real. En realidad es una muestra de cómo existen diferentes maneras de robar la información de los usuarios jugando con sus sentimientos.
En el video se escucha claramente a Mario Castañeda, el actor de doblaje que hace la voz de Goku desde hace muchos años, al igual que a René García que dobla a Vegeta. Estos audios no son grabados por ellos, sino que son generados con inteligencia artificial tomando sus registros de voz.
De esta manera crean un contenido que suena muy real y pueden engañar a los usuarios. En esta parodia se puede entender que es una broma, pero las posibilidades que brinda la IA son tan precisas que cualquiera puede ser engañado con otro tipo de mensaje, no solo solicitando dinero, sino también difundiendo información falsa o pidiendo datos personales.
Cómo usan la IA para crear contenido falso y hacer estafas
Aunque seguramente a nuestro teléfono nunca llamará Goku pidiendo dinero para salvar a Vegeta. La inteligencia artificial sí permite replicar la voz de una persona que quizás conozcamos o crear un video con una persona reconocida que difunda información falsa.
En el caso de las llamadas, que puede ser el método más común, la estafa es el intento tradicional de hacerse pasar por un familiar que está en una situación de urgencia y necesita dinero rápido para pagar una multa a la policía o enviar a alguien al hospital.
Plataformas como ElevenLabs permiten crear un diálogo simulando cualquier voz, solo se necesitan 30 segundos de grabación, por lo que los delincuentes pueden hacer una llamada previa al familiar para capturar esa información y luego ir por la víctima.
Lo que dice esta inteligencia artificial es el resultado de un texto que crean los atacantes, aprovechando que el software analiza cada aspecto de la voz como el género, la edad y el acento para encontrar patrones y hacer la copia.
Cómo evitar caer en esta estafa
Aunque la inteligencia artificial lleva la modalidad de robo a un punto de engaño muy alto, siempre hay que dudar ante este tipo de situación.
Lo primero es que en caso de una llamada, en la que alguien pida ayuda inmediatamente, nunca se debe dar el nombre de algún familiar, porque eso le servirá al delincuente para crear un lazo y empezar a actuar como esa persona, lo mejor será esperar hasta que sea él o ella el que revele su identidad.
En caso dar el nombre por error o que del otro lado lo adivinen, la mejor alternativa es llamar directamente a esa persona y asegurarse de que la situación es real. Los delincuentes siempre van a llamar de números desconocidos y con la excusa de que es por el problema que están pasando, por eso su celular no sirve o lo tienen detenido.
Otro punto clave es nunca dar información personal como dirección, teléfono, nombres, números de cuenta y correos electrónicos porque quizás no se efectúe un robo de dinero en ese momento, pero esa data le servirá al delincuente en el futuro.
Fuente: InfoBae