Tecnológicas:

Suscribir

Mistral lanza Mistral 3: modelos de IA abiertos y eficientes para la frontera tecnológica

Mistral lanza Mistral 3: una familia de modelos abiertos que desafía a los grandes de la IA

La startup francesa de inteligencia artificial Mistral ha anunciado el lanzamiento de su nueva familia de modelos de peso abierto, denominada Mistral 3. Esta familia incluye un total de 10 modelos, destacando un modelo de gran frontera con capacidades multimodales y multilingües, junto con nueve modelos más pequeños, completamente personalizables y capaces de funcionar fuera de línea.

Este lanzamiento se produce en un momento en que Mistral, con apenas dos años de vida, fundada por exinvestigadores de DeepMind y Meta, está acelerando para alcanzar a competidores de Silicon Valley que mantienen modelos de frontera cerrados. Hasta la fecha, Mistral ha recaudado aproximadamente 2.700 millones de dólares, con una valoración de 13.700 millones de dólares, cifras modestas en comparación con gigantes como OpenAI, que ha levantado 57.000 millones con una valoración de 500.000 millones, o Anthropic, con 45.000 millones recaudados y una valoración de 350.000 millones.

Perfil: Mistral

Mistral es una startup francesa especializada en el desarrollo de modelos de lenguaje de inteligencia artificial de peso abierto. Fundada en 2022 por antiguos investigadores de DeepMind y Meta, la empresa se enfoca en crear modelos de IA accesibles, eficientes y personalizables, con un fuerte compromiso por la independencia tecnológica y la accesibilidad global.

Guillaume Lample, cofundador y científico jefe de Mistral, explica que aunque algunos clientes prefieren inicialmente modelos grandes cerrados que no requieren ajuste, estos suelen ser costosos y lentos en la implementación. Por ello, muchos terminan recurriendo a modelos más pequeños y ajustados para casos de uso específicos, que ofrecen mayor eficiencia y rentabilidad.

En palabras de Lample: «La gran mayoría de los casos de uso empresarial pueden abordarse con modelos pequeños, especialmente si se ajustan con precisión». Además, las comparaciones iniciales que sitúan a los modelos pequeños de Mistral por detrás de los grandes modelos cerrados pueden ser engañosas, ya que la verdadera ventaja aparece tras la personalización, donde estos modelos pueden igualar o superar a sus competidores cerrados.

41B / 675B
Parámetros activos / totales de Mistral Large 3
256K
Ventana de contexto máxima (tokens)
9
Modelos pequeños en la familia Ministral 3

El modelo de gran frontera, Mistral Large 3, incorpora capacidades multimodales y multilingües, posicionándose a la par con otros modelos de frontera abiertos como Llama 3 de Meta y Qwen3-Omni de Alibaba. Destaca por su arquitectura de «mezcla granular de expertos» que activa 41 mil millones de parámetros dentro de un total de 675 mil millones, lo que le permite un razonamiento eficiente en una ventana de contexto de hasta 256.000 tokens.

Esta arquitectura proporciona velocidad y capacidad para procesar documentos extensos y desempeñarse como asistente de agente en tareas empresariales complejas, incluyendo análisis documental, codificación, generación de contenido, asistentes de IA y automatización de flujos de trabajo.

La familia Ministral 3, por su parte, está compuesta por nueve modelos densos de alto rendimiento en tres tamaños (14B, 8B y 3B parámetros) y tres variantes: Base (modelo básico previamente entrenado), Instruct (optimizado para conversaciones y flujos estilo asistente) y Reasoning (orientado a tareas analíticas y lógicas complejas).

Mistral asegura que estos modelos ofrecen a desarrolladores y empresas la flexibilidad para adaptar el rendimiento a sus necesidades, balanceando potencia, eficiencia y especialización. Ministral 3 iguala o supera en puntuaciones a otros líderes abiertos, siendo además más eficiente y generando menos tokens para tareas equivalentes. Todas las variantes soportan visión, manejan ventanas de contexto entre 128K y 256K tokens y operan en todos los idiomas.

Un aspecto clave de esta familia es su practicidad: Ministral 3 puede ejecutarse en una sola GPU, facilitando su implementación en hardware asequible como servidores locales, laptops, robots y dispositivos periféricos con conectividad limitada. Esto resulta crucial para empresas que mantienen datos internamente, estudiantes que requieren feedback offline y equipos de robótica en entornos remotos.

Mistral apuesta por una IA accesible para todos, especialmente para quienes no tienen acceso a Internet, evitando que la IA quede controlada por pocos grandes laboratorios.

Este enfoque en la accesibilidad se refleja en la estrategia de Mistral de integrar sus modelos pequeños en aplicaciones físicas como robots, drones y vehículos. A comienzos de 2025, la empresa inició colaboraciones con la Agencia de Ciencia y Tecnología Home Team (HTX) de Singapur para desarrollar modelos especializados en robótica, ciberseguridad y seguridad contra incendios; con la startup alemana Helsing para modelos visión-lenguaje-acción en drones; y con el fabricante Stellantis para un asistente de IA en automóviles.

Para Mistral, la fiabilidad y la independencia tecnológica son tan importantes como el rendimiento. Lample destaca que depender de APIs de competidores que pueden sufrir inactividad no es viable para grandes empresas, lo que refuerza la apuesta de Mistral por modelos abiertos y autónomos.

Cronología clave

2022 Fundación de Mistral por exinvestigadores de DeepMind y Meta.
2023 Desarrollo y lanzamiento de modelos previos como Pixtral y Mistral Small 3.1.
2025 Lanzamiento de la familia Mistral 3, incluyendo el modelo de frontera Large 3 y nueve modelos pequeños altamente eficientes.
BaseRendimiento equilibrado
InstructOptimizado para conversación
ReasoningTareas analíticas avanzadas

Menciones en redes sociales

«Mistral 3 redefine el acceso a la IA: modelos abiertos, eficientes y listos para la frontera tecnológica.»

spot_img
Activar Notificaciones OK No gracias