Mistral AI ha presentato la famiglia Mistral 3, composta da dieci modelli di intelligenza artificiale open-source multilingue e multimodali, guidata da Mistral Large 3 che utilizza un'architettura Mixture of Experts (MoE) ottimizzata per i supercomputer NVIDIA GB200 NVL72.La gamma comprende nove modelli "Ministral 3" più piccoli per le piattaforme edge di NVIDIA, mentre il co-fondatore Guillaume Lample sottolinea che anche il modello Ministral3 3B più compatto supera prestazioni di modelli quattro volte più grandi e può essere utilizzato localmente senza internet.Mistral AI, che ha raccolto oltre $1,05 miliardi inclusi fondi da
ASML, si distingue dai concorrenti statunitensi proprietari grazie all'adozione della licenza
Apache 2.0 e a iniziative come "
AI for Citizens" per il settore pubblico.