Le centre d’art, de mode et de divertissement de Decrypt.
Découvrez SCENE
La startup française d’IA Mistral, souvent reléguée au rang d’outsider européen dans un secteur dominé par des géants américains et des nouveaux venus chinois, vient de rattraper son retard : elle a lancé mardi sa sortie la plus ambitieuse à ce jour, offrant à la concurrence open source de quoi rivaliser. (Ou dans ce cas, sans argent.)
La famille de 4 modèles s’étend d’assistants de poche à un système de pointe de 675 milliards de paramètres, tous sous la licence open source permissive Apache 2.0. Les modèles sont publiquement disponibles en téléchargement—toute personne disposant du matériel adéquat peut les exécuter localement, les modifier, les affiner ou construire des applications dessus.
Le modèle phare, Mistral Large 3, utilise une architecture Mixture-of-Experts sparse qui n’active que 41 milliards de ses 675 milliards de paramètres totaux par token. Ce choix d’ingénierie lui permet d’atteindre des performances de pointe tout en maintenant une puissance de calcul proche d’un modèle de 40 milliards de paramètres.
Mistral Large 3 a été entraîné depuis zéro sur 3 000 GPU NVIDIA H200 et a fait ses débuts à la deuxième place parmi les modèles open source non spécialisés en raisonnement sur le classement LMArena.
La rivalité de benchmarks avec DeepSeek raconte une histoire complexe. Selon les benchmarks de Mistral, son meilleur modèle bat DeepSeek V3.1 sur plusieurs métriques mais reste derrière le plus récent V3.2 de quelques points sur LMArena.
Sur les tâches de connaissances générales et de raisonnement d’expert, la famille Mistral s’en sort bien. Là où DeepSeek prend l’avantage, c’est sur la vitesse brute de codage et la logique mathématique. Mais cela est attendu : cette version n’inclut pas de modèles de raisonnement, donc ces modèles ne possèdent pas de chaîne de pensée intégrée dans leur architecture.
Les petits modèles “Ministral” sont là où les choses deviennent intéressantes pour les développeurs. Trois tailles—3B, 8B et 14B paramètres—sont proposées en variantes base et instruct. Tous prennent en charge l’entrée visuelle nativement. Le modèle 3B a attiré l’attention du chercheur en IA Simon Willison, qui a noté qu’il peut fonctionner entièrement dans un navigateur via WebGPU.
Si vous souhaitez l’essayer, cet espace Huggingface vous permet de le charger localement et d’interagir en utilisant votre webcam comme entrée.
Une IA compétente, capable de traiter la vision, dans un fichier d’environ 3 Go ouvre des possibilités aux développeurs soucieux d’efficacité—ou même aux amateurs : drones, robots, ordinateurs portables hors ligne, systèmes embarqués dans des véhicules, etc.
Les premiers tests révèlent une personnalité divisée selon les modèles. Lors d’un test rapide, nous avons trouvé que le Mistral 3 Large excelle en fluidité conversationnelle. Parfois, il adopte le style de formatage de GPT-5 (un style linguistique similaire et une préférence pour les émojis) mais avec un rythme plus naturel.
Mistral 3 Large est également assez peu restrictif en matière de censure, ce qui en fait la meilleure option pour des jeux de rôle rapides lorsqu’on hésite entre ChatGPT, Claude ou Gemini.
Pour les tâches en langage naturel, l’écriture créative et le jeu de rôle, les utilisateurs trouvent la variante instruct 14B plutôt bonne, mais pas exceptionnelle. Les fils Reddit sur r/LocalLLaMA signalent des problèmes de répétition et parfois un recours excessif à des phrases toutes faites héritées des données d’entraînement, mais la capacité du modèle à générer du contenu long est appréciable, surtout pour sa taille.
Les développeurs effectuant de l’inférence locale rapportent que les modèles 3B et 8B bouclent parfois ou produisent des sorties stéréotypées, notamment sur les tâches créatives.
Cela dit, le modèle 3B est si petit qu’il peut tourner sur du matériel peu puissant, comme un smartphone, et peut être entraîné/affiné pour des usages spécifiques. La seule option concurrente actuellement dans ce domaine précis est la version la plus petite de Gemma 3 de Google.
L’adoption en entreprise est déjà en marche. HSBC a annoncé lundi un partenariat pluriannuel avec Mistral pour déployer l’IA générative dans l’ensemble de ses opérations. La banque exécutera des modèles auto-hébergés sur sa propre infrastructure, combinant ses capacités techniques internes avec l’expertise de Mistral. Pour les institutions financières traitant des données sensibles de clients sous le RGPD, l’attrait d’un fournisseur d’IA basé dans l’UE avec des poids ouverts n’est pas négligeable.
Mistral et NVIDIA ont collaboré sur un checkpoint compressé NVFP4 qui permet à Large 3 de fonctionner sur un seul nœud de huit de ses meilleures cartes. NVIDIA affirme que le Ministral 3B atteint environ 385 tokens par seconde sur une RTX 5090, avec plus de 50 tokens par seconde sur Jetson Thor pour des applications robotiques. Cela signifie que le modèle est très efficace et rapide en inférence, offrant des réponses plus rapides sans sacrifier la qualité.
Une version de Large 3 optimisée pour le raisonnement arrive bientôt, selon l’annonce. D’ici là, DeepSeek R1 et d’autres modèles chinois comme GLM ou Qwen Thinking conservent un certain avantage sur les tâches de raisonnement explicites. Mais pour les entreprises qui recherchent des capacités de pointe, des poids ouverts, une force multilingue sur les langues européennes, et une société non soumise aux lois de sécurité nationale chinoises ou américaines, les options viennent de passer de zéro à une.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Mistral fait son retour avec la famille Frontier AI qui rivalise directement avec DeepSeek
Le centre d’art, de mode et de divertissement de Decrypt.
Découvrez SCENE
La startup française d’IA Mistral, souvent reléguée au rang d’outsider européen dans un secteur dominé par des géants américains et des nouveaux venus chinois, vient de rattraper son retard : elle a lancé mardi sa sortie la plus ambitieuse à ce jour, offrant à la concurrence open source de quoi rivaliser. (Ou dans ce cas, sans argent.)
La famille de 4 modèles s’étend d’assistants de poche à un système de pointe de 675 milliards de paramètres, tous sous la licence open source permissive Apache 2.0. Les modèles sont publiquement disponibles en téléchargement—toute personne disposant du matériel adéquat peut les exécuter localement, les modifier, les affiner ou construire des applications dessus.
Le modèle phare, Mistral Large 3, utilise une architecture Mixture-of-Experts sparse qui n’active que 41 milliards de ses 675 milliards de paramètres totaux par token. Ce choix d’ingénierie lui permet d’atteindre des performances de pointe tout en maintenant une puissance de calcul proche d’un modèle de 40 milliards de paramètres.
Mistral Large 3 a été entraîné depuis zéro sur 3 000 GPU NVIDIA H200 et a fait ses débuts à la deuxième place parmi les modèles open source non spécialisés en raisonnement sur le classement LMArena.
La rivalité de benchmarks avec DeepSeek raconte une histoire complexe. Selon les benchmarks de Mistral, son meilleur modèle bat DeepSeek V3.1 sur plusieurs métriques mais reste derrière le plus récent V3.2 de quelques points sur LMArena.
Sur les tâches de connaissances générales et de raisonnement d’expert, la famille Mistral s’en sort bien. Là où DeepSeek prend l’avantage, c’est sur la vitesse brute de codage et la logique mathématique. Mais cela est attendu : cette version n’inclut pas de modèles de raisonnement, donc ces modèles ne possèdent pas de chaîne de pensée intégrée dans leur architecture.
Les petits modèles “Ministral” sont là où les choses deviennent intéressantes pour les développeurs. Trois tailles—3B, 8B et 14B paramètres—sont proposées en variantes base et instruct. Tous prennent en charge l’entrée visuelle nativement. Le modèle 3B a attiré l’attention du chercheur en IA Simon Willison, qui a noté qu’il peut fonctionner entièrement dans un navigateur via WebGPU.
Si vous souhaitez l’essayer, cet espace Huggingface vous permet de le charger localement et d’interagir en utilisant votre webcam comme entrée.
Une IA compétente, capable de traiter la vision, dans un fichier d’environ 3 Go ouvre des possibilités aux développeurs soucieux d’efficacité—ou même aux amateurs : drones, robots, ordinateurs portables hors ligne, systèmes embarqués dans des véhicules, etc.
Les premiers tests révèlent une personnalité divisée selon les modèles. Lors d’un test rapide, nous avons trouvé que le Mistral 3 Large excelle en fluidité conversationnelle. Parfois, il adopte le style de formatage de GPT-5 (un style linguistique similaire et une préférence pour les émojis) mais avec un rythme plus naturel.
Mistral 3 Large est également assez peu restrictif en matière de censure, ce qui en fait la meilleure option pour des jeux de rôle rapides lorsqu’on hésite entre ChatGPT, Claude ou Gemini.
Pour les tâches en langage naturel, l’écriture créative et le jeu de rôle, les utilisateurs trouvent la variante instruct 14B plutôt bonne, mais pas exceptionnelle. Les fils Reddit sur r/LocalLLaMA signalent des problèmes de répétition et parfois un recours excessif à des phrases toutes faites héritées des données d’entraînement, mais la capacité du modèle à générer du contenu long est appréciable, surtout pour sa taille.
Les développeurs effectuant de l’inférence locale rapportent que les modèles 3B et 8B bouclent parfois ou produisent des sorties stéréotypées, notamment sur les tâches créatives.
Cela dit, le modèle 3B est si petit qu’il peut tourner sur du matériel peu puissant, comme un smartphone, et peut être entraîné/affiné pour des usages spécifiques. La seule option concurrente actuellement dans ce domaine précis est la version la plus petite de Gemma 3 de Google.
L’adoption en entreprise est déjà en marche. HSBC a annoncé lundi un partenariat pluriannuel avec Mistral pour déployer l’IA générative dans l’ensemble de ses opérations. La banque exécutera des modèles auto-hébergés sur sa propre infrastructure, combinant ses capacités techniques internes avec l’expertise de Mistral. Pour les institutions financières traitant des données sensibles de clients sous le RGPD, l’attrait d’un fournisseur d’IA basé dans l’UE avec des poids ouverts n’est pas négligeable.
Mistral et NVIDIA ont collaboré sur un checkpoint compressé NVFP4 qui permet à Large 3 de fonctionner sur un seul nœud de huit de ses meilleures cartes. NVIDIA affirme que le Ministral 3B atteint environ 385 tokens par seconde sur une RTX 5090, avec plus de 50 tokens par seconde sur Jetson Thor pour des applications robotiques. Cela signifie que le modèle est très efficace et rapide en inférence, offrant des réponses plus rapides sans sacrifier la qualité.
Une version de Large 3 optimisée pour le raisonnement arrive bientôt, selon l’annonce. D’ici là, DeepSeek R1 et d’autres modèles chinois comme GLM ou Qwen Thinking conservent un certain avantage sur les tâches de raisonnement explicites. Mais pour les entreprises qui recherchent des capacités de pointe, des poids ouverts, une force multilingue sur les langues européennes, et une société non soumise aux lois de sécurité nationale chinoises ou américaines, les options viennent de passer de zéro à une.