Mistral AI ha presentado la familia Mistral 3 compuesta por diez modelos de inteligencia artificial multilingües y multimodales de código abierto, encabezada por Mistral Large 3 que emplea una arquitectura Mixture of Experts (MoE) optimizada para el sistema supercomputacional NVIDIA GB200 NVL72.La gama incluye nueve variantes "Ministral 3" más pequeñas desarrolladas para las plataformas edge de NVIDIA, mientras que el cofundador Guillaume Lample destaca que incluso el modelo Ministral3 3B más pequeño supera a modelos cuatro veces más grandes y puede funcionar en dispositivos sin conexión a internet.Mistral AI, que ha reunido más de $1.050 millones con inversiones de
ASML, se diferencia de los competidores privados estadounidenses al lanzar sus modelos bajo licencia
Apache 2.0 y apoyar iniciativas del sector público como "
AI for Citizens".