Mistral Small 4: el modelo europeo de 119.000 millones de parámetros que quiere simplificar la IA empresarial
Mistral AI acaba de lanzar Mistral Small 4, un modelo de inteligencia artificial con 119.000 millones de parámetros totales que integra en un solo sistema capacidades que hasta ahora requerían modelos separados.
Un modelo, cuatro funciones
Mistral Small 4 unifica las capacidades de cuatro líneas de producto anteriores. La arquitectura es de tipo Mixture of Experts (MoE) con 128 expertos, de los cuales solo 4 se activan por cada token procesado. El modelo tiene 119.000 millones de parámetros en total pero solo utiliza unos 6.000 millones en cada ejecución.
Eficiencia frente a tamaño bruto
En la prueba AA LCR, Mistral Small 4 obtiene 0,72 generando respuestas de 1.600 caracteres. Qwen3.5 de 122B alcanza 0,84 pero necesita 5.700 caracteres. GPT-OSS 120B se queda en 0,51 con 2.500 caracteres. En LiveCodeBench supera a GPT-OSS 120B generando un 20% menos de texto.
Ventana de contexto y licencia abierta
El modelo admite 256.000 tokens de contexto, acepta texto e imágenes y se publica bajo licencia Apache 2.0 para uso comercial sin restricciones. Disponible en Hugging Face, build.nvidia.com y la API de Mistral.
Qué significa para las empresas europeas
Las empresas que necesitan desplegar IA en sus propios servidores por razones de privacidad o coste pueden hacerlo sin depender de APIs externas. La arquitectura MoE permite ejecutar el modelo con hardware significativamente menor que un modelo denso equivalente.