Aggiornata: 3 Dic| Pubblicata: 2 Dic
Mistral AI ha presentato la famiglia Mistral 3, composta da dieci modelli di intelligenza artificiale open-source multilingue e multimodali, guidata da Mistral Large 3 che utilizza un'architettura Mixture of Experts (MoE) ottimizzata per i supercomputer NVIDIA GB200 NVL72.La gamma comprende nove modelli "Ministral 3" più piccoli per le piattaforme edge di NVIDIA, mentre il co-fondatore Guillaume Lample sottolinea che anche il modello Ministral3 3B più compatto supera prestazioni di modelli quattro volte più grandi e può essere utilizzato localmente senza internet.Mistral AI, che ha raccolto oltre $1,05 miliardi inclusi fondi da ASML, si distingue dai concorrenti statunitensi proprietari grazie all'adozione della licenza Apache 2.0 e a iniziative come "AI for Citizens" per il settore pubblico.
Tags

#Francia

#Parigi

#GuillaumeLample

#MistralAI

#MistralLarge3

#NVIDIAGB200NVL72

#Ministral3

#NVIDIA

#Ministral33B

#ASML

#Apache20

#AIForCitizens

Di più
VentureBeat Nvidia Semafor
Discutere
English
Español
Français
Deutsch
Svenska
28
Terra
Europa
USA
Tags

#GuillaumeLample

#

GuillaumeLample

Mistral AI ha presentato la famiglia Mistral 3, composta da dieci modelli di intelligenza artificiale open-source multilingue e multimodali, guidata da Mistral Large 3 che utilizza un'architettura Mixture of Experts...

2 Dic/3 Dic
Threads Facebook X Instagram Bluesky
Termini di servizio Politica sulla riservatezza
Stockholm, Suecia
+46 (0)8 525-171-42 Email