
Investigadores en seguridad han identificado más de 91,000 sesiones de ataque dirigidas a infraestructuras de inteligencia artificial entre octubre de 2025 y enero de 2026, revelando campañas sistemáticas contra despliegues de modelos de lenguaje largo. Los ataques explotan vulnerabilidades de Server-Side Request Forgery (SSRF) para inducir conexiones salientes hacia infraestructura controlada por atacantes, afectando funcionalidades críticas como la descarga de modelos y webhooks SMS. Estas acciones permiten reconocimiento detallado y potencial explotación de API comerciales, con múltiples direcciones IP de origen en una operación que sugiere uso de herramientas automatizadas comunes.
CVE y severidad
| CVE | Detalles | Referencias |
|---|---|---|
| CVE-2025-55182 | Vulnerabilidad explotada en infraestructura relacionada con SSRF | NVD, MITRE |
| CVE-2023-1389 | Vulnerabilidad relacionada con explotación frecuente en IPs observadas | NVD, MITRE |
Productos afectados
| Fabricante | Producto | Componente | Versiones afectadas |
|---|---|---|---|
| Ollama | Ollama AI infrastructure | Funcionalidad de descarga de modelos y webhooks SMS (MediaUrl) | Enero 2025 – Enero 2026 (período observado) |
| Varias (OpenAI, Google, Anthropic, Meta, DeepSeek, Mistral, Alibaba, xAI) | Modelos de lenguaje largo (LLM) | Puntos finales expuestos para interacciones y proxy | Versiones compatibles con OpenAI GPT-4o, Google Gemini, Anthropic Claude, Meta Llama 3.x, entre otras |
Solución
Permitir solo conexiones salientes a direcciones aprobadas para Ollama y bloquear todo otro tráfico saliente para evitar callbacks SSRF.
Recomendaciones
Priorice la restricción del tráfico saliente no esencial en servidores que alojan endpoints LLM expuestos; monitorice y bloquee direcciones IP asociadas a actividad maliciosa conocida, y realice auditorías regulares de configuraciones proxy y webhook para mitigar posibles vectores SSRF.
