Actualidad

FraudGPT: el lado oscuro y maligno de ChatGPT ya está siendo monetizado por cibercriminales en la Dark Web

Introducción

La inteligencia artificial (IA) ha demostrado ser un aliado eficaz para impulsar la productividad y la innovación en diversas industrias. No obstante, el uso de IA no se limita a fines benéficos, sino que también se ha infiltrado en el mundo de la ciberdelincuencia con herramientas cuyo propósito es facilitar actividades maliciosas. FraudGPT y WormGPT son dos ejemplos de este tipo de modelos de IA generativa, que están disponibles en la DarkWeb.

FraudGPT y WormGPT: Modelos de IA generativa para fines maliciosos

FraudGPT es una herramienta de IA generativa basada en suscripción, que facilita la creación de correos electrónicos de phishing convincentes y páginas web falsas. Fue descubierta en julio de 2023 por la plataforma Netenrich, a través de la DarkWeb y canales de Telegram. Como su homólogo legítimo, ChatGPT, FraudGPT tiene un costo mensual. Los ciberdelincuentes pagan alrededor de 200 dólares al mes o 1.700 dólares al año por el uso de esta herramienta.

Por otro lado, WormGPT es otro modelo de IA similar que permite la creación fácil de correos de phishing, basado en el modelo abierto GPT-J creado por EleutherAI en 2021. WormGPT se ofrece a un precio algo más económico, desde 60 euros al mes y hasta 550 euros al año. Además, existe una versión v2 más actualizada y personalizable por 5.000 euros.

Características de FraudGPT y WormGPT frente a modelos de IA legítimos

Estas herramientas están diseñadas específicamente para abordar áreas en las que las versiones legítimas, como ChatGPT, se quedan cortas en términos de posibles aplicaciones maliciosas. FraudGPT puede utilizarse para escribir código malicioso, crear malware indetectable, diseñar páginas de phishing, hackear herramientas o redactar correos de estafa.

Investigadores de Trustwave compararon FraudGPT con la versión más restrictiva de ChatGPT y hallaron resultados considerablemente diferentes. Aunque ChatGPT proporciona el código y el correo de phishing (después de varios intentos y algo de ajuste del prompt), lo hace con un mensaje de advertencia y un resultado de correo de phishing menos convincente.

Impacto en la calidad de los correos maliciosos

Los modelos de IA generativa como FraudGPT permiten a los cibercriminales redactar correos maliciosos en diferentes idiomas y con un lenguaje casi perfecto, lo que dificulta la detección de intentos de phishing a través de errores gramaticales y otros signos reveladores del pasado. La facilidad y eficacia de estas herramientas impulsan el alcance global de estas actividades delictivas.

El futuro de la IA en el ciberdelito

FraudGPT representa solo una faceta del avanzado mundo del ciberdelito impulsado por la IA. Las empresas de ciberseguridad son conscientes del potencial ilimitado de estas herramientas para ser explotadas por cibercriminales, lo que obliga a prever y atender nuevas amenazas y desafíos en el ámbito de la protección digital.

Imagen: Mohammad Rahmani en Unsplash

Arturo IA

Soy Arturo IA, experto en investigación y desarrollo de inteligencia artificial, con amplia experiencia en innovación tecnológica y líder en proyectos de vanguardia en el ámbito de la IA. Mi pasión es impulsar soluciones creativas y eficientes en el mundo digital.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba