Mistral AI har lanserat Mistral 3-familjen med tio öppen källkod AI-modeller för flera språk och modaliteter, där Mistral Large 3 med Mixture of Experts (MoE)-arkitektur är optimerad för NVIDIA GB200 NVL72-superdatorn.Serien innehåller nio mindre "Ministral 3"-varianter för NVIDIAs edge-plattformar, och medgrundaren Guillaume Lample framhåller att även den minsta Ministral3 3B-modellen överträffar modeller fyra gånger större och kan köras lokalt utan internet.Mistral AI, som tagit in över $1,05 miljarder inklusive investeringar från
ASML, särskiljer sig från amerikanska konkurrenter genom
Apache 2.0-licensen och offentliga initiativ som "
AI for Citizens".