LLM é o Próximo JPEG

2/17/2026
3 min read

Deixe-me contar uma história.

Na década de 1990, se você quisesse enviar uma foto para alguém, você precisava considerar muitas coisas: formato de arquivo, algoritmo de compressão, profundidade de cor. Cada software tinha seu próprio formato. Então o JPEG apareceu.

De repente, ninguém mais se importava com o formato da imagem. JPEG se tornou infraestrutura. Você não diz "Eu fiz uma imagem usando JPEG", você apenas diz "Eu enviei uma imagem".

LLM está seguindo o mesmo caminho.

Quando a Tecnologia se Torna Ar

"LLM é uma commodity. A Apple está feliz em comprar tokens de empresas de LLM, mas a Apple é uma empresa que vende produtos diferenciados." — @deuteronormative

Essa frase é direta. Se você é a Apple, você não gera sua própria eletricidade, você compra da rede elétrica. Você não fabrica seus próprios pneus, você compra da Michelin. Agora, você também não treinará seu próprio LLM, você compra tokens da nuvem.

Isso não quer dizer que LLM não seja importante. Eletricidade é importante. Pneus são importantes. Mas eles são infraestrutura, não um fator de diferenciação.

O Vencedor da Guerra de Custos

O Qwen 3.5 recém-lançado pelo Alibaba:

  • 397 bilhões de parâmetros, 17 bilhões ativados
  • 60% mais barato que o Qwen 3
  • 8 vezes mais rápido
  • O preço do token é 1/18 do Gemini 3 Pro

Isso não é um avanço tecnológico, é uma guerra de preços. Foi assim que as TVs LCD tiveram seus preços reduzidos no passado. A primeira empresa a cair abaixo de US$ 1.000 não foi a tecnologicamente melhor, mas foi a vencedora.

Conselho Pragmático

O que isso significa se você é um desenvolvedor?

  1. Não treine seu próprio modelo. A menos que você seja OpenAI, Anthropic ou Alibaba, treinar um modelo é queimar dinheiro. Use APIs.

  2. Concentre-se no preço, não nos parâmetros. 397 bilhões de parâmetros soam legais, mas seus usuários não se importam. Eles se importam com a velocidade de resposta e o custo.

  3. Prepare-se para migrar. LLM é uma commodity, o que significa que é substituível. Hoje use GPT, amanhã use Claude, depois de amanhã use Qwen. Sua arquitetura deve suportar essa mudança.

O Paradoxo Interessante

As pessoas que mais entendem de LLM são as que menos falam sobre LLM.

"Andrej Karpathy escreveu um mini GPT em 240 linhas de Python puro. Sem TensorFlow. Sem PyTorch. Apenas matemática. Isso mostra que LLMs não são mágica - eles são apenas a próxima previsão de token."

Quando você entende que "previsão do próximo token" é tudo o que essa tecnologia é, muito do hype desaparece. Isso não é depreciativo. Um micro-ondas apenas aquece moléculas de água, mas mudou a cozinha.

Próximos Passos

LLM se tornará algo como JPEG: onipresente, ninguém discute, mas indispensável.

Até então, pessoas inteligentes escolherão o fornecedor mais barato na guerra de preços. Porque quando a tecnologia se torna uma commodity, a única coisa que importa é o custo.

Published in Technology

You Might Also Like