¡Ojo con las estafas por clonación de voz y vídeo! | El Nuevo Siglo
EL USO de la tecnología debe ser cuidadoso para no perder dinero. /ENS - archivo
Jueves, 21 de Noviembre de 2024
Redacción Economía

LA INTELIGENCIA Artificial (IA) permite hoy en día generar cualquier tipo de contenido audiovisual, lo que es aprovechado por ciberdelincuentes para realizar suplantaciones de identidad y obtener datos personales, financieros y empresariales, tanto de individuos como de organizaciones, y mejorar así la efectividad de sus ataques.

Según un Reporte de IBM, en 2024 Brasil (68%), Colombia (17%) y Chile (8%) fueron los países más atacados en Latinoamérica. A nivel de industria, una vez más, retail fue uno de los sectores con más incidentes, empatando con finanzas y seguros en el primer lugar, con 25% cada uno. Además, datos de Appgate, empresa de acceso seguro, muestran que, entre los métodos más comunes de ataque, destacan la creación de redes sociales falsas (56%), el phishing tradicional (24%) y el phishing con redirección (7%). Con tecnologías como el deepfake, estos ataques amplifican significativamente su efectividad al hacerlos más convincentes y difíciles de detectar.

“Con el objetivo de imitar o suplantar a las personas e incluso engañar los algoritmos de control de acceso o autenticación de las organizaciones, los delincuentes utilizan herramientas especializadas de IA para modificar o crear elementos auditivos, así como también elementos gráficos o editar textos”, confirma Michael López, vicepresidente senior de soluciones fraude de Appgate.

Ante esto, estafas que utilicen clonación de voz o vídeo, serán una tendencia cada vez más presente en la región. El modo de operar para estos casos sigue un esquema basado en la tecnología “deepfake”, donde con programas de Inteligencia Artificial y aprendizaje automático, que permiten copiar los patrones de una persona a través de archivos públicos, los ciberdelincuentes pueden llevar a cabo sus crímenes.

“Se emplea un software para imitar la voz, con el objetivo de engañar o estafar a otras personas, mientras que, en el caso de la creación de vídeos, se logra imitar la cara y los movimientos de un individuo. De esta manera, los criminales aprovechan herramientas que les permiten aumentar la credibilidad de los engaños”, declaran desde Appgate.

Actualmente, existen distintos servicios por medio de sitios web en los que se pueden adquirir este tipo de suplantaciones, lo que ha democratizado y facilitado no solo la creación, sino el acceso que tienen las personas al deepfake para usarlo con distintos fines.