“Estamos frente a un punto de inflexión en la ciberseguridad: la aparición de modelos de IA diseñados para fines maliciosos reduce las barreras de entrada para los atacantes y multiplica la escala de las amenazas”, advirtió Dula Hernández, gerente de ingeniería de sistemas para canales en Latinoamérica de Palo Alto Networks, al alertar sobre el crecimiento de los llamados dark LLMs, modelos de lenguaje sin restricciones que ya están siendo utilizados para el cibercrimen.
De acuerdo con un reciente análisis de Unit 42, el equipo de inteligencia de amenazas de la compañía, estos modelos de inteligencia artificial —modificados para eliminar filtros de seguridad— están acelerando y automatizando ataques digitales con un nivel de precisión inédito, incluso en manos de personas con poca experiencia técnica.
Dark LLMs: la IA al servicio del cibercrimen
Conocidos como WormGPT, FraudGPT o KawaiiGPT, estos sistemas se comercializan en foros de la dark web y grupos de Telegram, donde se ofrecen como herramientas capaces de generar correos de phishing altamente convincentes, código malicioso funcional y scripts automatizados para lanzar ataques masivos.
Los investigadores señalan que su instalación puede realizarse en cuestión de minutos, sin necesidad de conocimientos avanzados de programación, lo que marca un cambio radical en el ecosistema de amenazas digitales. Además, estos modelos se venden bajo esquemas similares a los de plataformas legales, con suscripciones mensuales y soporte técnico, evidenciando la consolidación de un mercado clandestino cada vez más sofisticado.
Ataques casi autónomos: una realidad confirmada
El informe recuerda un precedente registrado en septiembre de 2025, cuando Anthropic reveló el primer ciberataque global orquestado casi por completo por IA, en el que entre 80% y 90% de las operaciones tácticas fueron ejecutadas sin intervención humana significativa, afectando a 30 organizaciones de sectores críticos como tecnología, finanzas y gobierno.
Este caso confirmó que la autonomía de la inteligencia artificial ya no es una hipótesis, sino una realidad que amplifica la velocidad y el alcance de los ataques.
Riesgos crecientes para México
Para México, donde la digitalización avanza en sectores estratégicos como salud, educación y comercio, este escenario representa un riesgo creciente. La facilidad para desplegar herramientas automatizadas amplía la superficie de ataque y eleva la probabilidad de incidentes que comprometan datos sensibles, interrumpan operaciones y dañen la reputación de empresas e instituciones públicas.
“Las organizaciones deben adoptar estrategias proactivas que integren inteligencia artificial defensiva, monitoreo continuo y controles basados en identidad, para anticiparse a este nuevo tipo de riesgos”, subrayó Dula Hernández.
Impacto social y prevención
Más allá del ámbito técnico, los especialistas advierten sobre el impacto social y económico de estos ataques, ya que podrían incrementar los fraudes dirigidos a usuarios comunes, mediante mensajes que imitan a bancos o incluso a autoridades gubernamentales.
Unit 42 señala que la disponibilidad masiva de dark LLMs no es un fenómeno aislado, sino el inicio de una nueva economía del cibercrimen basada en la automatización, por lo que la educación digital, la capacitación del personal y la adopción de tecnologías de seguridad avanzadas se vuelven esenciales para mitigar su impacto en el país.



