Campañas masivas de ataques SSRF y reconocimiento contra despliegues de modelos de lenguaje AI

La inteligencia artificial aumenta los riesgos de ataques multicanal - Red  Seguridad

Investigadores en seguridad han identificado más de 91,000 sesiones de ataque dirigidas a infraestructuras de inteligencia artificial entre octubre de 2025 y enero de 2026, revelando campañas sistemáticas contra despliegues de modelos de lenguaje largo. Los ataques explotan vulnerabilidades de Server-Side Request Forgery (SSRF) para inducir conexiones salientes hacia infraestructura controlada por atacantes, afectando funcionalidades críticas como la descarga de modelos y webhooks SMS. Estas acciones permiten reconocimiento detallado y potencial explotación de API comerciales, con múltiples direcciones IP de origen en una operación que sugiere uso de herramientas automatizadas comunes.

CVE y severidad

CVE Detalles Referencias
CVE-2025-55182 Vulnerabilidad explotada en infraestructura relacionada con SSRF NVD, MITRE
CVE-2023-1389 Vulnerabilidad relacionada con explotación frecuente en IPs observadas NVD, MITRE

Productos afectados

Fabricante Producto Componente Versiones afectadas
Ollama Ollama AI infrastructure Funcionalidad de descarga de modelos y webhooks SMS (MediaUrl) Enero 2025 – Enero 2026 (período observado)
Varias (OpenAI, Google, Anthropic, Meta, DeepSeek, Mistral, Alibaba, xAI) Modelos de lenguaje largo (LLM) Puntos finales expuestos para interacciones y proxy Versiones compatibles con OpenAI GPT-4o, Google Gemini, Anthropic Claude, Meta Llama 3.x, entre otras

Solución

Permitir solo conexiones salientes a direcciones aprobadas para Ollama y bloquear todo otro tráfico saliente para evitar callbacks SSRF.

Recomendaciones

Priorice la restricción del tráfico saliente no esencial en servidores que alojan endpoints LLM expuestos; monitorice y bloquee direcciones IP asociadas a actividad maliciosa conocida, y realice auditorías regulares de configuraciones proxy y webhook para mitigar posibles vectores SSRF.

Referencias