Advierten que ciberdelincuentes usan Inteligencia Artificial para crear ataques más potentes
Herramientas como WormGPT o Xanthorox AI permiten automatizar el desarrollo de malware y crear estafas de phishing y deepfakes casi perfectos, según un informe de la empresa de ciberseguridad Check Point.

Durante demasiado tiempo, la narrativa en torno a la Inteligencia Artificial (IA) en ciberseguridad se ha centrado en sus capacidades defensivas. Si bien la IA revoluciona la forma en que las organizaciones se protegen, es crucial reconocer la otra cara de la moneda: los ciberdelincuentes la están adoptando para crear ataques más potentes y elusivos.
Recibí las noticias en tu email
Accedé a las últimas noticias desde tu emailUn informe de la empresa de ciberseguridad Check Point advierte sobre el auge de modelos de lenguaje (LLM) maliciosos como WormGPT y el más reciente Xanthorox AI. Según la firma, estas no son amenazas teóricas, sino plataformas diseñadas con fines delictivos. WormGPT se comercializó como una alternativa "Blackhat", entrenada con datos sobre malware. Aunque sus creadores cesaron operaciones, la tendencia en el desarrollo de herramientas de IA ofensivas continúa, con ejemplos como BurpGPT, PentestGPT y FraudGPT.
Xanthorox AI, emergente en el primer trimestre de 2025, representa un avance significativo. Es un sistema autónomo y modular que opera sin conexión para mejorar el anonimato. Sus cinco modelos de IA especializados trabajan en conjunto para automatizar tareas sin supervisión externa:
- Desarrollo de malware.
- Reconocimiento de objetivos.
- Ingeniería social.
- Ataques coordinados.
Phishing perfeccionado con IA
El impacto de estos avances es especialmente agudo en los ataques de phishing. Los ciberdelincuentes utilizan la IA para generar contenido fraudulento con mayor rapidez, frecuencia y un alarmante grado de personalización. En 2024, el 67,4 por ciento de los incidentes de phishing a nivel global involucraron tácticas de IA, con el sector financiero como uno de los principales objetivos.
Atrás quedaron los días en que los errores gramaticales delataban una estafa. Un estudio de 2024 reveló que los correos de phishing generados íntegramente por IA alcanzaron una tasa de clics del 54 por ciento, lo que supone un aumento del 350 por ciento respecto a los correos tradicionales.
Un caso real ocurrió en febrero de 2024, cuando la filial húngara de una empresa minorista perdió 15,5 millones de euros. Los atacantes usaron IA para imitar a la perfección el tono y estilo de la correspondencia corporativa, engañando al personal financiero con solicitudes de transferencias urgentes.
Deepfakes: la suplantación de identidad definitiva
Los deepfakes (archivos de imagen, audio o video falsificados con IA) han añadido una nueva dimensión al phishing. Deloitte informa que el 25,9 por ciento de los ejecutivos ya ha experimentado al menos un incidente de este tipo.
Algunos ejemplos destacados son:
- Emiratos Árabes Unidos (2020): Un gerente de banco fue engañado para transferir 35 millones de dólares mediante una llamada con la voz del director de su empresa, clonada con IA.
- Hong Kong (enero de 2024): Una multinacional perdió 25 millones de dólares después de que un empleado fuera engañado en una videoconferencia con réplicas deepfake del director financiero y otros ejecutivos.
- Reino Unido (mayo de 2024): Un intento fallido utilizó la voz clonada de un director ejecutivo en una reunión de Microsoft Teams para solicitar la creación de una nueva entidad comercial con fines fraudulentos.
Análisis y reconocimiento impulsados por IA
La IA también permite a los atacantes analizar grandes volúmenes de datos de redes sociales y registros públicos para planificar ataques de phishing selectivo. Pueden predecir el comportamiento de las víctimas y determinar el momento ideal para enviar un correo fraudulento, aumentando las probabilidades de éxito.
A principios de 2024, una institución financiera en India fue víctima de una campaña que utilizaba Procesamiento de Lenguaje Natural (PLN) e IA generativa para redactar correos que imitaban el estilo del director ejecutivo. Esto llevó a un aumento del 175 por ciento en los ataques de phishing financiero en ese país durante el primer semestre de 2024.