Les LLM sont le prochain JPEG
Laissez-moi vous raconter une histoire.
Dans les années 1990, si vous vouliez envoyer une photo à quelqu'un, vous deviez tenir compte de beaucoup de choses : le format de fichier, l'algorithme de compression, la profondeur des couleurs. Chaque logiciel avait son propre format. Puis JPEG est arrivé.
Soudain, plus personne ne se souciait du format d'image. JPEG est devenu une infrastructure. Vous ne diriez pas « J'ai fait une image en JPEG », vous diriez simplement « J'ai envoyé une image ».
Les LLM suivent le même chemin.
Quand la technologie devient de l'air
"Les LLM sont des produits de base. Apple est heureux d'acheter des tokens auprès des entreprises de LLM, mais Apple est une entreprise qui vend des produits différenciés." — @deuteronormative
Cette phrase est directe. Si vous êtes Apple, vous ne produisez pas votre propre électricité, vous achetez de l'électricité du réseau. Vous ne fabriquez pas vos propres pneus, vous achetez des pneus de Michelin. Maintenant, vous n'entraînerez pas non plus votre propre LLM, vous achèterez des tokens dans le cloud.
Cela ne veut pas dire que les LLM ne sont pas importants. L'électricité est importante. Les pneus sont importants. Mais ce sont des infrastructures, pas des facteurs de différenciation.
Le gagnant de la guerre des coûts
Qwen 3.5, récemment publié par Alibaba :
- 397 milliards de paramètres, 17 milliards d'activations
- 60 % moins cher que Qwen 3
- 8 fois plus rapide
- Le prix des tokens est 1/18 de celui de Gemini 3 Pro
Ce n'est pas une percée technologique, c'est une guerre des prix. Les téléviseurs LCD ont baissé de prix de cette façon à l'époque. La première entreprise à passer sous la barre des 1000 $ n'était pas la meilleure technologiquement, mais c'est elle qui a gagné.
Conseils pragmatiques
Qu'est-ce que cela signifie si vous êtes un développeur ?
-
N'entraînez pas votre propre modèle. À moins que vous ne soyez OpenAI, Anthropic ou Alibaba, entraîner un modèle, c'est brûler de l'argent. Utilisez une API.
-
Concentrez-vous sur le prix plutôt que sur les paramètres. 397 milliards de paramètres, ça a l'air cool, mais vos utilisateurs s'en fichent. Ce qui les intéresse, c'est la vitesse de réponse et le coût.
-
Soyez prêt à migrer. Les LLM sont des produits de base, ce qui signifie qu'ils sont remplaçables. Aujourd'hui, vous utilisez GPT, demain Claude, après-demain Qwen. Votre architecture devrait prendre en charge ce type de commutation.
Un paradoxe intéressant
Les personnes qui comprennent le mieux les LLM sont celles qui en parlent le moins.
"Andrej Karpathy a écrit un mini GPT en 240 lignes de Python pur. Pas de TensorFlow. Pas de PyTorch. Seulement des mathématiques. Cela montre que les LLM ne sont pas de la magie - ce ne sont que des prédictions du prochain token."
Quand vous comprenez que la « prédiction du prochain token » est tout ce qu'est cette technologie, beaucoup de battage médiatique disparaît. Ce n'est pas une dévalorisation. Un four à micro-ondes ne fait que chauffer les molécules d'eau, mais il a changé la cuisine.
Prochaine étape
Les LLM deviendront quelque chose comme JPEG : omniprésents, dont personne ne parle, mais indispensables.
D'ici là, les personnes intelligentes choisiront le fournisseur le moins cher dans la guerre des prix. Parce que lorsque la technologie devient une marchandise, la seule chose qui compte, c'est le coût.





