Mixtral 8x22B, Large, 7B… Quel modèle de Mistral AI faut-il choisir ?
Baser sa stratégie d'IA générative uniquement sur des modèles d'IA made in France, c'est possible en 2024. La start-up parisienne Mistral AI propose un panel complet de LLMs adaptés à la majorité des cas d'usage de l'IA générative textuelle en entreprise. Mistral AI parvient à proposer des modèles de toutes tailles et performances avec une documentation unifiée. La petite équipe française dispose d'un atout de taille : la majorité des modèles proposés sont disponibles sur Azure (Microsoft), Bedrock (Amazon) ou sur Vertex AI (Google Cloud).
Mistral AI propose cinq modèles de langage différents et un modèle d'embedding (utile pour la classification de texte, les recommandations…). Trois LLMs sont proposés en open source, sous licence Apache 2 (la plus permissive) : Mistral 7B, Mixtral 8x7B, Mixtral 8x22B. La start-up propose également trois modèles commerciaux : Mistral Small, Mistral Large et Mistral Embed (pour la vectorisation de texte). Des modèles avec des architectures différentes conçues pour une multitude de cas d'utilisation.
Quel modèle Mistral AI pour quel usage : nos conseils
Modèle |
Mistral Small |
Mistral Large |
Mixtral 8x22B |
Mixtral 8x7B |
Mistral 7B |
Code |
X |
X |
X |
X |
X |
Tâches complexes |
X |
X |
|||
Tokens de contexte |
32 000 |
32 000 |
64 000 |
32 000 |
32 000 |
Support du français |
X |
X |
X |
X |
|
Support du JSON |
X |
X |
X |
||
Appel de fonction native |
X |
X |
X |
||
Open source |
X |
X |
X |
||
Paramètres à l'inférence |
NC |
NC |
39 milliards |
12,9 milliards |
7 milliards |
Architecture |
NC |
NC |
SMoE |
SMoE |
Transformer |
Nous avons délibérément ignoré le cas de Mistral Medium, qui sera obsolète dans un futur proche et qui ne présente donc pas d'intérêt pour être utilisé aujourd'hui. De même, Mistral Embeddings (8k de tokens d'input), le modèle d'embedding de Mistral AI, ne peut être directement comparé aux LLMs. Il est toutefois de très bonne facture pour la vectorisation de texte et les applications de RAG simples.
Comment choisir son modèle Mistral ?
Le choix d'un modèle Mistral AI doit être réfléchi en tenant compte de deux questions majeures. Premièrement, dois-je opter pour un modèle open source ou propriétaire ? Mis à part les performances globales (meilleures avec un Mistral Large propriétaire), c'est, encore et toujours, le cas d'usage qui définira le choix. Un modèle open source sera à privilégier pour des besoins de confidentialité de transparence forts. D'un autre côté, un modèle propriétaire peut être pertinent pour sa facilité de mise en œuvre et les performances offertes par les modèles. La possibilité de fine-tuner le modèle devra également être considérée.
Vient ensuite la question du coût/bénéfice. En optant pour un modèle open source, on aura le choix entre trois modèles. Il faudra alors choisir en tenant compte de la taille du modèle. Cette dernière impacte directement le coût d'inférence (en fonction des ressources hardware) et influence les performances du modèle (de façon moins directe). Chez Mistral AI, en open source, un Mixtral 8x22B sera plus efficace mais aussi plus gourmand en ressources qu'un Mistral 7B. Le mieux est de tester plusieurs modèles en définissant des métriques de performance et de cout adaptées à votre cas d'usage.