AUNQUE la inteligencia artificial (IA) lleva mucho tiempo despertando interés en los mundos de la ciencia y la ciencia ficción, el lanzamiento de ChatGPT en 2022 popularizó una forma de IA conocida como grandes modelos de lenguaje (Large Language Models, LLM). Y a medida que la IA se hace más prevalente, el crimen organizado ha comenzado a adoptar la tecnología, y las fuerzas de seguridad luchan por seguirle el ritmo.
La mayoría de los cuerpos policiales de la región “tienen más inteligencia y más capacidad de investigación frente a las organizaciones criminales análogas tradicionales”, dijo a InSight Crime Carlos Solar, experto en ciberseguridad para América Latina del Royal United Services Institute for Defence and Security Studies (Real Instituto de Servicios Unidos para Estudios de Defensa y Seguridad).
Sin embargo, a medida que la popularidad de la IA criminal crece y las investigaciones revelan más información sobre las técnicas delictivas, el uso de las nuevas tecnologías por parte del crimen organizado se hace cada día más evidente.
Pero primero, ¿qué es un LLM? Es una tecnología que se integra en los programas que ahora cuentan con asistentes de IA para ayudar a escribir y automatizar tareas. Así, es una forma de aprendizaje automático popularizado por ChatGPT que permite a los usuarios comunicarse de forma natural con los modelos de IA, haciendo que la tecnología emergente sea más intuitiva y fácil de usar.
Los LLM permiten utilizar el lenguaje natural para interactuar con el modelo, haciendo preguntas y peticiones como lo haría un humano. Y el modelo responde con un lenguaje igualmente natural, lo que hace que interactuar con un LLM sea fácil, sin necesidad de conocimientos técnicos.
Aunque editar digitalmente una imagen o escribir código para automatizar una tarea ha sido posible durante años, este tipo de tareas requerían herramientas y conocimientos especializados. Ahora, las herramientas de IA permiten producir una foto realista, escribir con naturalidad en un idioma extranjero o enviar automáticamente un gran número de correos electrónicos con algunos programas gratuitos.
Todo ello está siendo aprovechado por los grupos criminales y estas son las cuatro formas en que se ha evidenciado su actividad en América Latina:
1. ‘Deep Fakes’. Los grupos criminales han aprovechado las imágenes realistas generadas por IA y las voces falsas para cometer fraudes y extorsiones. Recibes una llamada y reconoces la voz. Es uno de tus familiares. Han sido secuestrados y debes pagar un rescate, o tienen una emergencia y necesitan dinero. Pero, en realidad, tu ser querido está bien. Un grupo criminal utilizó grabaciones de las redes sociales y algunas herramientas de IA para imitar su voz por teléfono. A medida que la IA ha ido avanzando, el realismo de la imitación de la voz y el pánico inducido al pensar que alguien querido está en peligro pueden hacer que la estafa sea más eficaz. Esta táctica ha sido utilizada por criminales peruanos y se está extendiendo por todo el mundo.
Pero los deep fakes no se limitan a imitar la voz de alguien. La IA también puede producir imágenes y videos cada vez más realistas. En la frontera entre Estados Unidos y México, por ejemplo, se ha reportado que grupos criminales que utilizan imágenes falsas para estafar a las familias de migrantes desaparecidos. Ellos crean sitios web haciéndose pasar por organizaciones que ayudan a encontrar a personas desaparecidas. Luego piden a las familias fotos de la persona desaparecida para identificarla y con ellas crean imágenes o videos falsos convincentes diciendo que fue secuestrada y que las familias deben pagar un rescate.
2. Optimización de los fraudes existentes. El crimen organizado está aplicando la IA a estafas financieras ya existentes, aumentando su eficacia y escala. En el caso de los deep fakes, los criminales están haciendo más convincentes viejas estafas. En otras estafas, la IA ayuda a los grupos delictivos a llegar a más víctimas potenciales en menos tiempo y con menos recursos. De esta forma, en lugar de llamar personalmente a cada una de las víctimas potenciales, se puede configurar un programa para que llame a un montón de contactos a la vez, explica Solar. “Gastas menos recursos y probablemente obtendrás una recompensa mucho mayor”.
También utilizan la herramienta tecnológica para automatizar las llamadas, así como chatbots y otras formas de IA generativa para interactuar con las víctimas potenciales. Los estafadores han recurrido a aplicaciones de citas con chatbots, incluido uno conocido como LoveGPT, que iniciará una conversación. Los bots se utilizan en estafas conocidas como “pig butchering”, en las que los estafadores intentan establecer una conexión emocional con la víctima y una vez ganada la confianza, los estafadores piden dinero, a menudo inventando una historia sobre una emergencia trágica o presentando una falsa oportunidad de inversión.
Aunque la automatización puede ayudar a grupos más pequeños a operar a mayor escala, algunos de los grupos más poderosos de la región podrían estar involucrándose. Una evaluación de Interpol advirtió que el Cartel Jalisco Nueva Generación (CJNG) de México, el Primer Comando Capital (Primeiro Comando da Capital, PCC) y el Comando Rojo (Comando Vermelho, CV) de Brasil están participando en este tipo de fraudes.
3. Mejor phishing. Los LLM están ayudando a los ciberdelincuentes a afinar sus mensajes, imitar jefes y crear más correos electrónicos con mayor rapidez. Llega un correo electrónico urgente de tu jefe. Se han quedado sin acceso a su cuenta, pero tienen que terminar algo ya mismo para un cliente, así que te piden tu nombre de usuario para hacerlo a tiempo. Respondes sin dudarlo, pensando que estás ayudando a tu jefe. Más tarde, cuando él no tiene ni idea de lo que estás hablando, vuelves a leer el correo electrónico, esta vez con más atención, y te das cuenta de que no fue enviado desde el correo electrónico de tu jefe, sino desde uno sorprendentemente similar.
Los correos electrónicos fraudulentos, conocidos como phishing, utilizan la urgencia y la imitación para engañar a las víctimas y hacerles entregar sus claves o instalar programas maliciosos. En Brasil, por ejemplo, un grupo de ciberdelincuentes llamado Pineapple se hace pasar por el servicio federal de impuestos. Envían correos electrónicos con un enlace que lleva a una imitación del sitio web del gobierno. Cuando las víctimas intentan descargar documentos fiscales, en su lugar descargan programas maliciosos. En Colombia, el gobierno advirtió que el phishing es ahora el “método más utilizado por delincuentes cibernéticos para estafar y obtener información confidencial de forma fraudulenta”.
A medida que la IA mejora, puede cambiar mejor su tono e imitar el estilo de las personas. Los delincuentes son capaces de elaborar correos electrónicos personalizados con los que es más probable que las víctimas interactúen antes incluso de que sospechen que algo puede ir mal. Y como ocurre con otros fraudes, la IA puede ayudar a automatizar tareas, enviando cientos de correos electrónicos. Desde el lanzamiento de ChatGPT, los correos electrónicos de phishing han aumentado más de un 4.000%, según un informe de la empresa de ciberseguridad Slash Next. Y aunque los principales LLM tienen protección para evitar abuso de su software, el mundo criminal sigue encontrando alternativas.
4. Escribir malware. Los LLM más populares se niegan a escribir malware -programas maliciosos- o ayudar en actividades delictivas, pero los criminales aprendieron a engañar al modelo y han desarrollado alternativas delictivas. Uno de los problemas de los mecanismos de seguridad es que el malware y los programas normales suelen hacer cosas parecidas. La diferencia es cómo se aplican. Por ejemplo, cuando entras a un sitio web, con frecuencia verás una ventana emergente que te pide que inicies sesión. Cuando introduces tu nombre de usuario y contraseña, envía esta información a un servidor para verificar tus credenciales. Los programas de robo de información más conocidos, como el malware bancario utilizado por grupos de ciberdelincuentes en Brasil, hacen casi exactamente lo mismo. La única diferencia es que esta ventana emergente envía tu información a un servidor controlado por el grupo criminal, donde pueden acceder a tu cuenta o vender tus datos.
Así que un modelo de IA popular puede rechazar una solicitud para escribir un programa de robo de información, pero ayudará a escribir una ventana emergente para iniciar sesión. El software en sí no es malicioso, pero cuando los grupos delictivos engañan a la gente para que lo descargue con un correo electrónico de phishing, puede utilizarse para robar a las víctimas.
Los mejores LLM del mercado aún no son lo bastante buenos para escribir software complicado por sí solos, pero son potentes depuradores y pueden ayudar a los programadores sin experiencia a desarrollar software de mayor calidad. Y para los desarrolladores experimentados, la IA puede ayudar a escribir más código, mucho más rápido.
Además de piratear los principales LLM para ayudar a desarrollar malware, los grupos delictivos han empezado a crear sus propios modelos. Se han creado nuevas imitaciones de ChatGPT sin ningún tipo de control, lo que ayuda a producir programas maliciosos sin tener que adaptar las instrucciones de forma creativa./InSight Crime - Christopher Newton