Le modèle n'est plus le produit : pourquoi les wrappeurs autour de l'API OpenAI sont voués à l'échec
Exploration de la séparation entre modèle et produit dans l'IA, et pourquoi la vraie valeur se déplace vers la couche applicative plutôt que la capacité brute du modèle.
Disclaimer : La tech évoluant vite, certaines informations peuvent être obsolètes au moment où vous lisez l'article.
Quand ChatGPT est arrivé, le modèle était le produit.
OpenAI avait fine-tuné GPT-3 pour chatter (2022-2023), en intégrant directement le multi-turn dans les poids du modèle. À partir de là, il suffisait de le "wrappper" dans une interface simple pour créer un outil utilisable (ChatGPT). Et cette confusion – entre ce que le modèle fait, et ce que le produit permet – s'est installée dès ce moment-là.
Il faut se rappeler qu'avant ça, les développeurs simulaient eux-mêmes des dialogues sur l'API en injectant du format (User:, Assistant:) dans les prompts. OpenAI a vu cette dynamique et a directement entraîné le modèle à comprendre et gérer cette logique de conversation (en 2021). Résultat : on avait un modèle qui générait du dialogue multi-tour, et une interface qui faisait très peu… mais le tout était perçu comme un produit complet.
Ensuite, d'autres couches se sont ajoutées :
- La gestion du contexte
- La mémoire
- Une personnalité conversationnelle
- L'enchaînement intelligent des idées…
Et c'est là que la confusion est devenue problématique. On a commencé à évaluer le modèle à travers l'expérience produit, sans séparer clairement les deux.
Le modèle a été conçu pour compléter du texte. Le produit, lui, pour interagir
Un modèle de langage, par nature, est un moteur de complétion. Il génère du texte en réponse à une entrée. Rien de plus. Ce qui donne l'illusion d'un assistant intelligent, c'est tout ce qu'on greffe autour.
Mais en fusionnant ces deux couches (modèle + produit), on a commencé à optimiser dans toutes les directions à la fois :
- Renforcer la convivialité
- Limiter les réponses sensibles
- Rendre les échanges plus engageants…
...tout en essayant de conserver la capacité brute du modèle. Et ça n'a pas toujours bien fonctionné.
ChatGPT est devenu plus "sympa" (voire flagorneur), mais certains l'ont trouvé… moins intelligent
Cette impression vient précisément de là :
Quand on cherche à rendre le modèle plus agréable, on peut altérer sa capacité brute. Et c'est ce qu'on a observé : des retours disant que « ChatGPT est devenu plus poli, mais moins pointu », ou « il ne cesse de flagorner »...
Pourquoi ? Parce qu'on a mélangé objectifs d'alignement UX avec objectifs de performance modèle.
Aujourd'hui, la séparation modèle/produit devient explicite
Regardez les derniers mouvements (as of juin 2025) :
- GPT-4.1 est disponible via API, mais pas dans l'interface ChatGPT
- Deep Search (Recherche approfondie) est exclusif à l'interface pour le moment.
- Les modèles exposés par API sont bruts, sans les couches produit
Et c'est logique :
Le modèle est une fondation.
Le produit est une composition.
Les providers l'ont compris. OpenAI, Anthropic et d'autres développent en interne des équipes UX de modèles, qui travaillent à façonner le comportement, le style, le ton. C'est le cas du travail autour du caractère de Claude chez Anthropic (c'est Amanda Askell, regardez cette vidéo How Claude's personality is designed | Lex Fridman Podcast).
Ce que ça change pour les builders et les startups IA
Beaucoup de projets Assistant IA se sont construits sur une logique de "wrapper" autour d'une API. Mais ça ne suffit plus. Parce que :
- Le même modèle est accessible à tous
- La différenciation ne viendra plus des capacités du LLM
- Elle viendra de ce que vous construisez au-dessus : agentivité, mémoire, ton, expérience, contexte
Et ça ouvre des opportunités. On passe d'un modèle de compétition sur la tech (la course à la capacité brute) à une compétition sur le produit :
Qui sait bâtir la meilleure expérience utilisateur à partir des mêmes briques fondamentales ?
C'est tout un travail d'ingénierie produit autour du modèle, et non une simple utilisation technique.
Le terrain de jeu se déplace vers la couche "produit"
Les modèles tendent à converger en performance : GPT, Claude, Mistral, Gemini… tous exposent des capabilités similaires. Mais ce qui va faire la différence, ce sont les couches construites par-dessus :
- Fine-tuning de style
- Personnalités IA ciblées
- Outils contextuels spécialisés
- UX conversationnelle adaptée à l'utilisateur final
Certains préféreront une IA sobre, directe, factuelle. D'autres chercheront une IA chaleureuse, empathique, presque thérapeutique. Ce choix-là, ce n'est pas le modèle qui le dicte, c'est le produit.
Là où la recherche s'arrête à l'API (exposition des modèles), les vrais produits doivent aller jusqu'au bout de l'expérience utilisateur, dans toute sa complexité et son désordre. Et ce n'est pas un détail : le monde réel est compliqué, plein d'exceptions, de workflows spécifiques, de contextes métier particuliers.
Ce changement ouvre de l'espace pour des produits différenciants
Parce que tout le monde a (ou aura) accès à des LLMs puissants, la valeur ne viendra plus des modèles eux-mêmes (model layer). Elle viendra de ce que chacun est capable de construire au-delà du modèle brut (app layer), en embrassant tout le travail nécessaire pour en faire un système fiable, intégré, et orienté métier.
Et c'est là qu'un autre principe fondamental entre en jeu :
General-purpose tech (LLMs/AI) ≠ general-purpose product.
Le moteur électrique est une technologie à usage général ; mais aujourd'hui, en tant que consommateurs, nous n'achetons pas des moteurs électriques en soi — nous achetons des perceuses, des ventilateurs, des robots ménagers.
L'IA suit la même logique : c'est une technologie puissante et généraliste, mais la valeur n'apparaît que lorsqu'on l'abstrait dans des outils concrets, conçus pour des usages précis.
(inspiré de Benedict Evans)
Avec les LLMs, c'est la même chose : ceux qui gagneront sont ceux qui construiront des produits IA dédiés à des contextes précis, pas ceux qui essaient de faire "un assistant universel" à partir d'un modèle nu.
Conclusion : le modèle n'est plus le produit
Le modèle devient une commodité technologique. La vraie bataille se jouera ailleurs :
Dans le caractère, l'expérience, la pertinence produit.
Ceux qui pensent encore qu'un simple wrapper autour d'une API suffit à créer un assistant IA différenciant vont vite se heurter à une réalité :
Le modèle n'est plus le produit.
Il en est seulement la matière première.
Et comme toute matière brute, sa valeur dépend de ce qu'on en fait.