Uppdaterad: 3 Dec| Publicerad: 2 Dec
Mistral AI har lanserat Mistral 3-familjen med tio öppen källkod AI-modeller för flera språk och modaliteter, där Mistral Large 3 med Mixture of Experts (MoE)-arkitektur är optimerad för NVIDIA GB200 NVL72-superdatorn.Serien innehåller nio mindre "Ministral 3"-varianter för NVIDIAs edge-plattformar, och medgrundaren Guillaume Lample framhåller att även den minsta Ministral3 3B-modellen överträffar modeller fyra gånger större och kan köras lokalt utan internet.Mistral AI, som tagit in över $1,05 miljarder inklusive investeringar från ASML, särskiljer sig från amerikanska konkurrenter genom Apache 2.0-licensen och offentliga initiativ som "AI for Citizens".
Tags

#Frankrike

#Paris

#GuillaumeLample

#MistralAI

#MistralLarge3

#NVIDIAGB200NVL72

#Ministral3

#NVIDIA

#Ministral33B

#ASML

#Apache20

#AIForCitizens

Läs mer
VentureBeat Nvidia Semafor
Diskutera
English
Español
Français
Deutsch
Italiano
26
Jorden
Europa
USA
Tags

#Ministral33B

#

GuillaumeLample

Mistral AI har lanserat Mistral 3-familjen med tio öppen källkod AI-modeller för flera språk och modaliteter, där Mistral Large 3 med Mixture of Experts (MoE)-arkitektur är optimerad för NVIDIA GB200 NVL72-superdatorn....

2 Dec/3 Dec
Threads Facebook X Instagram Bluesky|AppleSpotifyAmazonYouTube
Användarvillkor Integritetspolicy
Stockholm, Sverige
+46 (0)8 525-171-42 Email