LLM é o Próximo JPEG
Deixe-me contar uma história.
Na década de 1990, se você quisesse enviar uma foto para alguém, você precisava considerar muitas coisas: formato de arquivo, algoritmo de compressão, profundidade de cor. Cada software tinha seu próprio formato. Então o JPEG apareceu.
De repente, ninguém mais se importava com formatos de imagem. JPEG se tornou infraestrutura. Você não diria "Eu fiz uma imagem usando JPEG", você apenas diria "Eu enviei uma imagem".
LLM está seguindo o mesmo caminho.
Quando a Tecnologia se Torna Ar
"LLM é uma commodity. A Apple ficaria feliz em comprar tokens de empresas de LLM, mas a Apple é uma empresa que vende produtos diferenciados." — @deuteronormative
Essa frase é direta. Se você é a Apple, você não gera sua própria eletricidade, você compra da rede elétrica. Você não fabrica seus próprios pneus, você compra da Michelin. Agora, você também não treinará seu próprio LLM, você compra tokens da nuvem.
Isso não quer dizer que LLM não seja importante. Eletricidade é importante. Pneus são importantes. Mas eles são infraestrutura, não um fator de diferenciação.
O Vencedor da Guerra de Custos
Qwen 3.5, recém-lançado pelo Alibaba:
- 397 bilhões de parâmetros, 17 bilhões ativados
- 60% mais barato que o Qwen 3
- 8 vezes mais rápido
- Preço do token é 1/18 do Gemini 3 Pro
Isso não é um avanço tecnológico, é uma guerra de preços. As TVs LCD também tiveram seus preços reduzidos dessa forma. A primeira empresa a cair abaixo de US$ 1.000 não foi a que tinha a melhor tecnologia, mas foi a vencedora.
Conselho Pragmático
O que isso significa se você é um desenvolvedor?
-
Não treine seu próprio modelo. A menos que você seja OpenAI, Anthropic ou Alibaba, treinar um modelo é queimar dinheiro. Use APIs.
-
Concentre-se no preço, não nos parâmetros. 397 bilhões de parâmetros soam legais, mas seus usuários não se importam. Eles se importam com a velocidade de resposta e o custo.
-
Prepare-se para migrar. LLM é uma commodity, o que significa que é substituível. Hoje use GPT, amanhã use Claude, depois de amanhã use Qwen. Sua arquitetura deve suportar essa mudança.
Um Paradoxo Interessante
As pessoas que mais entendem de LLM são as que menos falam sobre LLM.
"Andrej Karpathy escreveu um mini GPT com 240 linhas de Python puro. Sem TensorFlow. Sem PyTorch. Apenas matemática. Isso mostra que LLMs não são mágica - eles são apenas a próxima previsão de token."
Quando você entende que a "próxima previsão de token" é tudo o que essa tecnologia é, muito do hype desaparece. Isso não é depreciativo. Um micro-ondas apenas aquece moléculas de água, mas mudou a cozinha.
Próximos Passos
LLM se tornará algo como JPEG: onipresente, ninguém discute, mas indispensável.
Até lá, pessoas inteligentes escolherão o fornecedor mais barato na guerra de preços. Porque quando a tecnologia se torna uma commodity, a única coisa que importa é o custo.





