Mistral AI hat die Mistral 3-Familie mit zehn Open-Source-Modellen für mehrsprachige und multimodale KI vorgestellt, angeführt von Mistral Large 3 mit einer Mixture of Experts (MoE)-Architektur für das optimierte Zusammenspiel mit dem NVIDIA GB200 NVL72-Supercomputersystem.Die Serie umfasst neun kleinere "Ministral 3"-Varianten für NVIDIA-Edge-Plattformen, wobei Mitgründer Guillaume Lample betont, dass selbst das kleinste Ministral3 3B-Modell größere Modelle um das Vierfache übertrifft und auf Endgeräten lokal ohne Internet läuft.Mistral AI, mit mehr als $1,05 Milliarden Finanzierung einschließlich Investitionen von
ASML, hebt sich durch die
Apache 2.0-Lizenz und Public-Sector-Initiativen wie "
AI for Citizens" von US-Konkurrenten ab.