Mixtral 8x22B, Large, 7B… Quel modèle de Mistral AI faut-il choisir ?

Mixtral 8x22B, Large, 7B… Quel modèle de Mistral AI faut-il choisir ? Mistral AI propose cinq modèles de langage, de différentes tailles, propriétaires et open source. Le JDN Vous aide à sélectionner celui qui est fait pour vous.

Baser sa stratégie d'IA générative uniquement sur des modèles d'IA made in France, c'est possible en 2024. La start-up parisienne Mistral AI propose un panel complet de LLMs adaptés à la majorité des cas d'usage de l'IA générative textuelle en entreprise. Mistral AI parvient à proposer des modèles de toutes tailles et performances avec une documentation unifiée. La petite équipe française dispose d'un atout de taille : la majorité des modèles proposés sont disponibles sur Azure (Microsoft), Bedrock (Amazon) ou sur Vertex AI (Google Cloud).

Mistral AI propose cinq modèles de langage différents et un modèle d'embedding (utile pour la classification de texte, les recommandations…). Trois LLMs sont proposés en open source, sous licence Apache 2 (la plus permissive) : Mistral 7B, Mixtral 8x7B, Mixtral 8x22B. La start-up propose également trois modèles commerciaux : Mistral Small, Mistral Large et Mistral Embed (pour la vectorisation de texte). Des modèles avec des architectures différentes conçues pour une multitude de cas d'utilisation.

Quel modèle Mistral AI pour quel usage : nos conseils

Modèle

Mistral Small

Mistral Large

Mixtral 8x22B

Mixtral 8x7B

Mistral 7B

Code

X

X

X

X

X

Tâches complexes

 

X

X

   

Tokens de contexte

32 000

32 000

64 000

32 000

32 000

Support du français

X

X

X

X

 

Support du JSON

X

X

X

   

Appel de fonction native

X

X

X

   

Open source

   

X

X

X

Paramètres à l'inférence

NC

NC

39 milliards

12,9 milliards

7 milliards

Architecture

NC

NC

SMoE

SMoE

Transformer

Nous avons délibérément ignoré le cas de Mistral Medium, qui sera obsolète dans un futur proche et qui ne présente donc pas d'intérêt pour être utilisé aujourd'hui. De même, Mistral Embeddings (8k de tokens d'input), le modèle d'embedding de Mistral AI, ne peut être directement comparé aux LLMs. Il est toutefois de très bonne facture pour la vectorisation de texte et les applications de RAG simples.

Comment choisir son modèle Mistral ?

Le choix d'un modèle Mistral AI doit être réfléchi en tenant compte de deux questions majeures. Premièrement, dois-je opter pour un modèle open source ou propriétaire ? Mis à part les performances globales (meilleures avec un Mistral Large propriétaire), c'est, encore et toujours, le cas d'usage qui définira le choix. Un modèle open source sera à privilégier pour des besoins de confidentialité de transparence forts. D'un autre côté, un modèle propriétaire peut être pertinent pour sa facilité de mise en œuvre et les performances offertes par les modèles. La possibilité de fine-tuner le modèle devra également être considérée.

Vient ensuite la question du coût/bénéfice. En optant pour un modèle open source, on aura le choix entre trois modèles. Il faudra alors choisir en tenant compte de la taille du modèle. Cette dernière impacte directement le coût d'inférence (en fonction des ressources hardware) et influence les performances du modèle (de façon moins directe). Chez Mistral AI, en open source, un Mixtral 8x22B sera plus efficace mais aussi plus gourmand en ressources qu'un Mistral 7B. Le mieux est de tester plusieurs modèles en définissant des métriques de performance et de cout adaptées à votre cas d'usage.