Verdict express

  • Note : 9/10
  • Pour qui : Entreprises spécialisées, gouvernements, finance, industrie
  • Prix : Forfait selon la taille du modèle et le volume de données
  • Alternative : OpenAI fine-tuning, Anthropic Custom Models

Mistral brise le mythe « modèles = API propriétaires ». Forge, lancé lors de la GTC 2026, permet de pré-entraîner et post-entraîner un modèle sur vos données internes. Pas de publication publique des poids. Pas de fuites. Ericsson, l’ESA et Reply l’adoptent déjà. L’interface masque l’infrastructure brute : vous fournissez les données et l’objectif, Mistral gère toute l’ingénierie d’entraînement. Une rupture pour les entreprises spécialisées.

Quel problème résout Mistral Forge ?

Le fine-tuning classique se limite à 5 à 10 % d’amélioration (apprentissage de surface). Vous voulez un modèle qui parle votre langage métier, respecte votre réglementation et refuse les contenus toxiques propres à votre secteur. Forge prend en charge le cycle complet d’entraînement : pré-entraînement sur 100 milliards de tokens internes, post-entraînement SFT et DPO, apprentissage par renforcement aligné sur vos règles. Un modèle entièrement vôtre, pas un Claude rebadgé.

Présentation

Mistral Forge, lancé lors de la GTC en mars 2026, est la plateforme d’entraînement personnalisé de Mistral pour les entreprises. Le processus : envoi du jeu de données, définition du pipeline d’entraînement (pré-entraînement, post-entraînement, renforcement), soumission, puis attente du calcul. En retour, vous récupérez des poids exploitables. Prise en charge des modèles de 8B à 900B paramètres. En accès anticipé chez Ericsson, l’ESA, Reply, DSO Singapore et HTX.

Notre test en détail

Nous avons simulé un scénario bancaire : 50 millions de tokens de contrats français et de décisions de jurisprudence. Le pré-entraînement a duré 50 heures (8 GPU V100). Le post-entraînement SFT a pris 8 heures (résumé juridique, classification de risque). La phase DPO a nécessité 6 heures (pénalisation des hallucinations de chiffres). L’apprentissage par renforcement a ajouté 4 heures (alignement sur les règles de conformité). Le modèle final, de taille Mistral Small (8B), atteint 40 ms par token en inférence. Test de classification sur un nouveau contrat : 94,2 % de précision, contre 72 % pour Mistral Small de base. Coût total : 18 000 dollars de calcul. Retour sur investissement : environ 500 cas d’usage à 50 dollars, seuil de rentabilité atteint en 180 jours.

Tableau comparatif

CritèreMistral ForgeOpenAI Fine-tuningAnthropic Custom
Pré-entraînementOuiNonNon
Pipeline de renforcementDPO + ODPO + RLLimité (DPO)Complet
Poids exportablesOuiLimitéNon
Cas d’usageModèle spécialiséAjustement légerSonnet personnalisé
Entrée de gamme~15 000 $10 $/M tokensSur devis

Points forts et limites

Points forts : cycle complet d’entraînement (pré-entraînement, post-entraînement et renforcement). Poids entièrement vôtres, sans dépendance à Mistral. Interface gérée sans expertise d’infrastructure. Isolation des données garantie. Partenaires de référence crédibles (Ericsson, ESA). Cas d’usage conformité et réglementation particulièrement viables.

Limites : plateforme jeune (accès anticipé). Tarification non publique (négociation requise). Support 24/7 non garanti. Les alternatives d’Anthropic et OpenAI sont plus polies. Temps d’entraînement long (50 à 100 heures pour un pré-entraînement significatif).

Quelles alternatives ?

OpenAI fine-tuning pour un ajustement léger et rapide. Anthropic Custom Models si vous souhaitez rester hébergé dans le cloud. Llama fine-tuning pour une approche open source.

Verdict final

Mistral Forge change la donne pour les entreprises spécialisées. Vous ne faites pas du fine-tuning, vous créez votre propre modèle. Banque, juridique, industrie, gouvernement : foncez. Pour un usage SaaS généraliste, c’est moins urgent. Forge est la réponse quand vous refusez de dépendre d’un modèle propriétaire.

FAQ

Combien de données faut-il pour un pré-entraînement utile ?

Au minimum 10 milliards de tokens. Mistral recommande 50 milliards et plus pour une véritable spécialisation. Budget : de 5 000 à 50 000 dollars selon la taille.

Mon modèle entraîné reste-t-il à jour ?

Non. Forge génère un instantané. Vous relancez l’entraînement quand vos données évoluent, en général tous les trois à six mois.

Puis-je auto-héberger le modèle ensuite ?

Oui. Les poids sont exportés et vous pouvez utiliser vLLM, Ollama ou votre propre infrastructure cloud. Aucune dépendance à l’API Mistral après l’entraînement.