De plus en plus d’entreprises souhaitent personnaliser les LLM en fonction de leurs besoins et des exigences de conformité pour mieux gérer la sensibilité des données. Pour répondre à cette problématique, Mistral AI vient de lancer Forge une plateforme assurant la création de modèles personnalisés. Un marché déjà bien occupé par les fournisseurs de services cloud qui proposent depuis quelques années ces services : Bedrock pour AWS, Vertex AI pour Google Cloud ou Azure AI Foundry pour Microsoft.

Comme ses concurrents, Forge prend en charge l’intégralité du cycle de vie de l’entraînement des modèles. Il supporte le pré-entraînement sur de vastes ensembles de données internes (en utilisant des Mixture-of-Experts (MoE)), la génération de données synthétiques, les pipelines de de données, le post-entraînement supervisé, l'affinage (RAG, fine tuning,...), l’évaluation et les tests de régressions, l’inférence… Les clients ont le choix du modèle Mistral qu’il souhaite personnaliser avec des capacités multimodales (texte, image et audio). Ils peuvent se servir de Forge dans leurs propres infrastructures IA ou sur Mistral Compute, l’infrastructure de calcul du fournisseur. Elle fournit par ailleurs un service de conseil pour accompagner les entreprises dans leur stratégie IA. Avec Forge, Mistral AI cible des secteurs fortement réglementés comme la Défense, les services financiers ou la santé. Il a déjà quelques références comme ASML - qui a investi 1,3 M€ dans l’entreprise française -, DSO National Laboratories Singapore, l'Agence spatiale européenne, Home Team Science and Technology Agency Singapore…

Small 4, Leanstral et un siège au consortium Nemotron

En parallèle de l’annonce de Forge, Mistral AI a aussi présenté la quatrième version de son modèle Small. De type « mix-of-experts », il comprend 119 milliards de paramètres au total, mais seulement 6 milliards actifs par requête pour des fenêtres contextuelles de 256 000 tokens. La société précise qu’il est 40 % plus rapide que son prédécesseur tout en traitant trois fois plus de requêtes par seconde. Par ailleurs, elle a dévoilé Leanstral, un petit modèle de 6 milliards de paramètres pour la vérification de code générée par l’IA en s'appuyant sur des preuves mathématiques. 

Enfin Mistral a annoncé à la GTC 2026 de Nvidia à San Jose qu’il rejoignait le consortium Nemotron au côté de Cursor, Perplexity, Black Forest Labs… pour co-développer les modèles ouverts Nemotron 4. L’objectif est que les développeurs et les ingénieurs logiciels puissent utiliser ces modèles pour créer des agents ou des applications IA spécifiques à un domaine sans avoir à construire un modèle de base à partir de zéro.