LLM è il prossimo JPEG

2/17/2026
3 min read

Lasciatemi raccontare una storia.

Negli anni '90, se volevi inviare una foto a qualcuno, dovevi considerare molte cose: formato del file, algoritmo di compressione, profondità del colore. Ogni software aveva il suo formato. Poi è arrivato JPEG.

Improvvisamente, a nessuno importava più il formato dell'immagine. JPEG è diventato un'infrastruttura. Non dicevi "Ho fatto un'immagine con JPEG", dicevi solo "Ho inviato una foto".

LLM sta seguendo lo stesso percorso.

Quando la tecnologia diventa aria

"LLM è una commodity. Apple è felice di acquistare token da società LLM, ma Apple è una società che vende prodotti differenziati." — @deuteronormative

Questa frase è detta in modo diretto. Se sei Apple, non generi la tua elettricità, la compri dalla rete elettrica. Non produci i tuoi pneumatici, li compri da Michelin. Ora, non addestrerai nemmeno il tuo LLM, comprerai token dal cloud.

Questo non significa che LLM non sia importante. L'elettricità è importante. I pneumatici sono importanti. Ma sono infrastrutture, non fattori di differenziazione.

Il vincitore della guerra dei costi

Qwen 3.5, appena rilasciato da Alibaba:

  • 397 miliardi di parametri, 17 miliardi attivati
  • 60% più economico di Qwen 3
  • 8 volte più veloce
  • Il prezzo del token è 1/18 di Gemini 3 Pro

Questa non è una svolta tecnologica, è una guerra dei prezzi. Anche i televisori LCD sono diminuiti di prezzo in questo modo. La prima azienda a scendere sotto i 1000 dollari non era la migliore tecnologicamente, ma è stata la vincitrice.

Consigli pragmatici

Cosa significa questo se sei uno sviluppatore?

  1. Non addestrare il modello da solo. A meno che tu non sia OpenAI, Anthropic o Alibaba, addestrare un modello significa bruciare denaro. Usa le API.

  2. Concentrati sul prezzo, non sui parametri. 397 miliardi di parametri sembrano fantastici, ma ai tuoi utenti non importa. A loro interessa la velocità di risposta e il costo.

  3. Preparati a migrare. LLM è una commodity, il che significa che è sostituibile. Oggi usi GPT, domani usi Claude, dopodomani usi Qwen. La tua architettura dovrebbe supportare questo tipo di commutazione.

Un paradosso interessante

Le persone che capiscono meglio LLM sono quelle che ne parlano meno.

"Andrej Karpathy ha scritto un mini GPT con 240 righe di puro Python. Nessun TensorFlow. Nessun PyTorch. Solo matematica. Dimostra che LLM non è magia: sono solo la previsione del token successivo."

Quando capisci che la "previsione del token successivo" è tutto ciò che questa tecnologia è, gran parte dell'hype scompare. Questo non è un disprezzo. Il forno a microonde si limita a riscaldare le molecole d'acqua, ma ha cambiato la cucina.

Prossimi passi

LLM diventerà qualcosa di simile a JPEG: onnipresente, di cui nessuno parla, ma indispensabile.

Fino ad allora, le persone intelligenti sceglieranno il fornitore più economico nella guerra dei prezzi. Perché quando la tecnologia diventa una commodity, l'unica cosa che conta è il costo.

Published in Technology

You Might Also Like