
Mistral Small 3 est un modèle de langage ambitieux, mais léger, permettant son utilisation locale sur des machines (relativement) peu puissantes.
Un modèle qui ne pèse que 47,16 Go précisément et qui, à l’instar des LLM V3 et R1 de DeepSeek (qui font tant parler depuis une semaine), est distribué gratuitement, en open source. Il est dès à présent téléchargeable en torrent et mobilisable sur des ordinateurs domestiques – pour peu qu’ils soient solidement équipés.
Un faux concurrent à DeepSeek R1
Annoncé sur X, Mistral Small 3 ne vise pas à concurrencer le grand modèle de langage (LLM) réflexif de DeepSeek, le R1. Bien plus modeste et économe, il se présente plutôt comme une solution pouvant être mobilisée localement (sans connexion à Internet) et capable d’effectuer diverses tâches d’automatisation et de répondre à des requêtes simples.
S’il ne fait techniquement pas le poids face à DeepSeek R1 (24 milliards de paramètres contre 671 milliards pour le chatbot chinois), sa petite taille lui permet d’être installé sur des ordinateurs aux configurations certes musclées, mais relativement accessibles au commun des mortels. Un MacBook Pro doté de 32 Go de mémoire vive peut le mobiliser, comme une tour embarquant une carte graphique RTX 4090 ou 5090, qui vient tout juste de sortir.
Un modèle à destination des pros
Mistral Small 3 n’est pas un produit destiné au grand public. Le Chat, le robot conversationnel concurrent de ChatGPT reste la meilleure porte d’entrée vers les LLM de la startup française. Reste que Small 3 pourrait faire du bruit parmi les pros, grâce à une efficience soulignée par plusieurs benchmarks partagés sur le blog de l’entreprise. Avec une vitesse d’exécution de 150 tokens/seconde, il fait mieux que le LLaMA 3.3 70B de Meta.
Voici quelques scénarios dans lesquels Mistral Small 3 pourrait se révéler utile. On notera donc qu’il s’agit en particulier de la conception d’applications, lesquelles pourraient ensuite être mises à disposition du grand public.
- Assistance conversationnelle à réponse rapide : Mistral Small 3 excelle dans les scénarios où des réponses rapides et précises sont essentielles, comme les assistants virtuels.
- Appel de fonctions à faible latence : Mistral Small 3 peut gérer l’exécution rapide de fonctions dans les workflows automatisés ou agentiques.
- Affinage pour créer des experts dans un domaine spécifique : Mistral Small 3 peut être affiné pour se spécialiser dans des domaines comme le conseil juridique, le diagnostic médical ou l’assistance technique.
- Inférence locale : particulièrement bénéfique pour les passionnés et les organisations gérant des informations sensibles ou propriétaires.
L’avantage de l’exécution locale du modèle de Mistral est également que ses utilisateurs et ses utilisatrices restent souverains sur leurs données personnelles. Un point qui est justement reproché à DeepSeek, épinglé par plusieurs agences européennes de protection de la confidentialité.