OpenAI dévoile GPT-4.1 : plus intelligent, plus résistant, plus rapide… et moins cher

OpenAI dévoile GPT-4.1 : plus intelligent, plus résistant, plus rapide… et moins cher GPT-4.1 superforme la version actuelle de GPT-4o sur un grand nombre de tâches (développement, analyse visuelle…). Trois versions différentes sont annoncées : GPT‑4.1, GPT‑4.1 mini, et GPT‑4.1 nano.

OpenAI continue de délivrer en ce début de printemps. Après avoir dévoilé trois modèles d'IA autour des modalités vocales, le géant de l'IA met à jour sa gamme de LLM. Après GPT-4o et GPT-4.5, place à GPT-4.1. Comme à l'accoutumée, trois nouveaux modèles sont présentés : GPT-4.1, GPT‑4.1, mini sa version réduite et GPT‑4.1 nano, une version très réduite. Revue des capacités en présence.

GPT-4.1 ne sera pas disponible dans ChatGPT

Contrairement à ses prédécesseurs, GPT-4.1 sera exclusivement disponible via l'API d'OpenAI. OpenAI veut prioriser les développeurs et l'écosystème professionnel plutôt que les utilisateurs grand public pour cette nouvelle sortie. L'entreprise précise que les améliorations en matière de suivi d'instructions, de programmation et d'intelligence ont déjà été progressivement intégrées dans la dernière version de GPT-4o sur ChatGPT, et que cette tendance se poursuivra avec les prochaines mises à jour. Il ne faudra donc pas s'attendre à voir GPT-4.1 dans ChatGPT. Dommage. 

Fait notable, OpenAI annonce également la dépréciation prochaine de GPT-4.5 Preview dans l'API, qui sera définitivement désactivé dans trois mois, le 14 juillet 2025 précisément. Une décision justifiée par les performances similaires ou supérieures du petit dernier sur de nombreux benchmarks. Une des avancées majeures de GPT-4.1 est l'extension considérable de la fenêtre de contexte, passant de 128 000 tokens pour GPT-4o à 1 million de tokens pour l'ensemble de la gamme GPT-4.1. Sans s'aligner sur Llama 4 et ses dix millions de tokens, la fenêtre de 4.1 permet déjà de traiter une grande quantité de données. 

OpenAI affirme justement avoir entraîné GPT-4.1 pour être plus fiable dans sa capacité à repérer les informations pertinentes sur l'ensemble du contexte, tout en ignorant les éléments non pertinents, et ce quelle que soit leur position dans la séquence d'entrée. Les trois versions de GPT-4.1 sont également  toutes multimodales (texte, image, vidéo), quasiment un standard chez OpenAI. 

Les quatre points forts de GPT-4.1 

GPT-4.1 se distingue particulièrement dans trois domaines clés : le code, le suivi d'instructions, la compréhension des contextes longs et la latence En matière de codage, les performances sont très bonnes : le modèle atteint 54,6% sur SWE-bench Verified, surpassant GPT-4o de 21,4 points et même GPT-4.5 de 26,6 points. En matière de suivi d'instructions, GPT-4.1 affiche une amélioration de 10,5 points sur MultiChallenge par rapport à GPT-4o. Des progrès intéressants pour maintenir l'accuracy sur des prompts complexes ou longs. Idéal pour l'IA agentique par exemple. 

Enfin, dans le domaine multimodal, GPT-4.1 établit un nouveau record sur Video-MME (capacité à répondre à des questions à choix multiples basées sur des vidéos), avec un score de 72,0%, soit une amélioration de 6,7 points par rapport à GPT-4o. GPT-4.1 mini se distingue quant-à-lui dans l'analyse d'images, surpassant souvent GPT-4o sur MMMU ( compréhension de diagrammes, graphiques et cartes) et MathVista (résolution de problèmes mathématiques visuels). Même la version nano affiche des performances remarquables pour sa taille, avec 80,1% sur MMLU. 

Sur la latence, OpenAI a réalisé des améliorations significatives : le temps de première réponse se situe aux alentours de quinze secondes pour un contexte de 128 000 tokens, et peut monter jusqu'à trente secondes pour un contexte d'un million de tokens avec la version générique de 4.1. ,

© OpenAI

Le modèle le plus économique d'OpenAI

Grâce à des améliorations significatives de l'efficacité de son infrastructure d'inférence, OpenAI propose GPT-4.1 à un prix nettement inférieur à celui de son prédécesseur. Concrètement, le modèle principal est environ 26% moins coûteux que GPT-4o, avec un tarif de 2 $ par million de tokens en entrée et 8 $ par million de tokens en sortie. GPT-4.1 mini se positionne à 0,40 $ en entrée et 1,60 $ en sortie, tandis que GPT-4.1 nano devient le modèle le plus économique jamais proposé par OpenAI, à seulement 0,10 $ en entrée et 0,40 $ en sortie. Un avantage concurrentiel majeur. Enfin, OpenAI augmente également la remise sur la mise en cache des prompts à 75% (contre 50% précédemment) pour ces nouveaux modèles. Les trois modèles de la famille GPT-4.1 sont disponibles dès aujourd'hui depuis l'API officielle. 

Modèle Input ($/1M tokens) Input avec cache ($/1M tokens) Output ($/1M tokens) Contexte max
GPT-4o $2.50 $1.25 (50% de remise) $10.00 128k tokens
GPT-4.1 $2.00 $0.50 (75% de remise) $8.00 1M tokens
GPT-4.1 mini $0.40 $0.10 (75% de remise) $1.60 1M tokens
GPT-4.1 nano $0.10 $0.025 (75% de remise) $0.40 1M tokens

 Un modèle rudement efficace, performant, et en plus pas cher : le cocktail devrait pleinement satisfaire les développeurs.