LLM est le prochain JPEG

2/17/2026
3 min read

Laissez-moi vous raconter une histoire.

Dans les années 1990, si vous vouliez envoyer une photo à quelqu'un, vous deviez tenir compte de beaucoup de choses : le format de fichier, l'algorithme de compression, la profondeur des couleurs. Chaque logiciel avait son propre format. Puis JPEG est apparu.

Soudain, plus personne ne se souciait du format d'image. JPEG est devenu une infrastructure. Vous ne diriez pas "J'ai fait une image en JPEG", vous diriez simplement "J'ai envoyé une image".

LLM est en train de suivre le même chemin.

Quand la technologie devient de l'air

"LLM est une marchandise. Apple est heureux d'acheter des tokens auprès des entreprises LLM, mais Apple est une entreprise qui vend des produits différenciés." — @deuteronormative

Cette phrase est directe. Si vous êtes Apple, vous ne produisez pas votre propre électricité, vous l'achetez au réseau électrique. Vous ne fabriquez pas vos propres pneus, vous achetez des pneus à Michelin. Maintenant, vous n'entraînerez pas non plus votre propre LLM, vous achèterez des tokens dans le cloud.

Cela ne veut pas dire que LLM n'est pas important. L'électricité est importante. Les pneus sont importants. Mais ce sont des infrastructures, pas des facteurs de différenciation.

Le gagnant de la guerre des coûts

Qwen 3.5, récemment publié par Alibaba :

  • 397 milliards de paramètres, 17 milliards d'activations
  • 60 % moins cher que Qwen 3
  • 8 fois plus rapide
  • Le prix du token est 1/18 de celui de Gemini 3 Pro

Ce n'est pas une percée technologique, c'est une guerre des prix. Les téléviseurs LCD ont également baissé de prix de cette façon. La première entreprise à passer sous la barre des 1000 dollars n'était pas la meilleure technologiquement, mais c'est elle qui a gagné.

Conseils pragmatiques

Qu'est-ce que cela signifie si vous êtes un développeur ?

  1. Ne vous entraînez pas vous-même à créer des modèles. À moins que vous ne soyez OpenAI, Anthropic ou Alibaba, l'entraînement de modèles coûte cher. Utilisez l'API.

  2. Concentrez-vous sur le prix plutôt que sur les paramètres. 397 milliards de paramètres, ça a l'air cool, mais vos utilisateurs s'en fichent. Ce qui les intéresse, c'est la vitesse de réponse et le coût.

  3. Soyez prêt à migrer. LLM est une marchandise, ce qui signifie qu'il est remplaçable. Aujourd'hui, vous utilisez GPT, demain Claude, après-demain Qwen. Votre architecture devrait prendre en charge ce type de commutation.

Un paradoxe intéressant

Les personnes qui connaissent le mieux LLM sont celles qui en parlent le moins.

"Andrej Karpathy a écrit un mini GPT en 240 lignes de Python pur. Pas de TensorFlow. Pas de PyTorch. Seulement des mathématiques. Cela montre que les LLM ne sont pas de la magie - ce ne sont que des prédictions du prochain token."

Lorsque vous comprenez que la "prédiction du prochain token" est tout ce qu'est cette technologie, une grande partie du battage médiatique disparaît. Ce n'est pas une dévalorisation. Un micro-ondes ne fait que chauffer des molécules d'eau, mais il a changé la cuisine.

Prochaine étape

LLM deviendra quelque chose comme JPEG : omniprésent, dont personne ne parle, mais indispensable.

D'ici là, les personnes intelligentes choisiront le fournisseur le moins cher dans la guerre des prix. Parce que lorsque la technologie est banalisée, la seule chose qui compte est le coût.

Published in Technology

You Might Also Like