Persona cubierta de una proyección de códigos binarios.
por Nahim Díaz profile image Nahim Díaz

WormGPT: cibercriminales usando IA

WormGPT es un ejemplo de que los ciberdelincuentes no se olvidan de los avances tecnológicos.

Diariamente, vemos cómo la inteligencia artificial se usa en diversas áreas para nuestro beneficio. Gracias a ella, agilizamos tareas y hacemos nuevas cosas con apenas unas instrucciones y pulsar un botón (es magia). Sin embargo, como sucede con cualquier gran avance, esto también abre las puertas a nuevos peligros y desafíos (y no, no me refiero a Skynet).

Para mí, cuando se habla de estos retos, se suele pasar por alto su impacto en nuestra seguridad digital. Como nosotros, los ciberdelincuentes se mantienen al día con la tecnología y también están usando o creando herramientas para facilitar su trabajo. Ejemplos de esto son la tecnología deepfake para generar estafas y desinformación, hasta la creación de malware.

Hoy les hablo sobre los modelos de lenguaje impulsados por IA y cómo los usan los cibercriminales.

¿Qué son los modelos de lenguaje impulsados por inteligencia artificial?

Nos referimos como modelo de lenguaje a un patrón computacional y estadístico que se usa para comprender y generar texto en lenguaje natural. Estos modelos trabajan mediante amplias redes neuronales artificiales que fueron entrenadas con una gran cantidad de datos (libros, reseñas, emails, etc.), lo que les permite reconocer patrones, replicarlos y formar nueva información.

💡
Brevemente, son herramientas capaces de comprender el lenguaje humano y dar una respuesta coherente y legible para las personas.

Un ejemplo de este tipo de herramientas es ChatGPT, un modelo entrenado con una variedad de datos y capaz de responder con gran precisión a diversas preguntas, lo que lo convierte en el ayudante perfecto para el día a día.

Ahora bien, ¿qué ocurriría si se entrena un modelo con código de malware, plantillas de phishing, conversaciones de estafas y no se pone límites?

El nacimiento de WormGPT y FraudGPT

Con el pasar del año, junto al boom de ChatGPT y otras herramientas con inteligencia artificial, han aparecido muchos programas enfocados en facilitar estafas o la creación de malware. Dos de los más destacados en foros y Telegram son WormGPT y FraudGPT.

Ambos se anunciaron como "tu asistente personal para el crimen", y tanto uno como otro están construidos con el modelo open-source GPT-J entrenado con distintos dataset (conjuntos de datos) con código de malware y ejemplos de phishing. La única diferencia entre ambos es que FraudGPT fue entrenado con mucha más información, lo que mejora su rendimiento y resultados.

Dedo humano señalando un aviso de código malicioso.
Imagen de PXFuel.

Ambas herramientas prometían ser capaces de:

  1. Escribir correos electrónicos de phishing y contenido de ingeniería social.
  2. Crear exploits, malware y herramientas de hacking.
  3. Descubrir vulnerabilidades y credenciales comprometidas.
  4. Ofrecer consejos para realizar estafas.

Mi experiencia con estas herramientas

Probé WormGPT en su primer mes de lanzamiento para crear un reporte de amenazas en mi trabajo, y quedé sorprendido por la rapidez y facilidad con la que creaba correos/mensajes de texto, imitando casi a la perfección la estructura y la escritura de los ejemplos que le di.

Aun así, no todo era perfecto, ya que al intentar escribir malware con su ayuda, me dio ejemplos muy básicos y con errores, pero tras ciertas modificaciones, logré que funcionaran y que sean indetectables para Windows Defender.

Hablando desde mi experiencia, WormGPT no cumplió con las expectativas que tuve al leer el anuncio, pero al ser una de las primeras versiones, es normal que haya tenido ciertas limitaciones técnicas, y debo admitir que el resultado del código mejoraba con cada iteración.

👀
Por fortuna, el creador de WormGPT cesó sus actividades y desarrollo en agosto.
Comunicado sobre el cierre del proyecto de WormGPT.
Comunicado sobre el cierre del proyecto de WormGPT.

¿Deberías preocuparte por estas herramientas?

Personalmente, creo que estos modelos de lenguaje impulsados con inteligencia artificial no son una amenaza en la actualidad.

Aun así, es importante resaltar que, aunque este tipo de herramientas están lejos de ser perfectas, son una clara señal que la IA puede convertirse en una poderosa arma en manos de ciberdelincuentes, y que al igual que las herramientas que usamos en el día a día, mejorarán continuamente.

La lucha contra este tipo de amenazas no es simple, es muy probable que muchas personas sin conocimientos técnicos usen software de este tipo para desarrollar malware o coordinar estafas y tengan éxito. Esto abre la puerta a un futuro donde las regulaciones y la inteligencia artificial tengan un papel fundamental en nuestra seguridad digital del día a día.

💡
Lee nuestras publicaciones de seguridad digital e inteligencia artificial para mantenerte al día.
por Nahim Díaz profile image Nahim Díaz
Actualizado el
Seguridad Digital Inteligencia Artificial