LLM es el próximo JPEG

2/17/2026
3 min read

Déjame contarte una historia.

En la década de 1990, si querías enviar una foto a alguien, tenías que considerar muchas cosas: formato de archivo, algoritmo de compresión, profundidad de color. Cada software tenía su propio formato. Entonces apareció JPEG.

De repente, a nadie le importó el formato de imagen. JPEG se convirtió en infraestructura. No dirías "Hice una imagen con JPEG", solo dirías "Envié una imagen".

LLM está siguiendo el mismo camino.

Cuando la tecnología se convierte en aire

"LLM es un producto básico. A Apple le complace comprar tokens de empresas de LLM, pero Apple es una empresa que vende productos diferenciados." — @deuteronormative

Esta frase lo dice directamente. Si eres Apple, no generarás tu propia electricidad, compras electricidad de la red. No fabricarás tus propios neumáticos, compras neumáticos de Michelin. Ahora, tampoco entrenarás tu propio LLM, compras tokens de la nube.

Esto no quiere decir que LLM no sea importante. La electricidad es importante. Los neumáticos son importantes. Pero son infraestructura, no un factor diferenciador.

El ganador de la guerra de costos

Qwen 3.5, lanzado recientemente por Alibaba:

  • 397 mil millones de parámetros, 17 mil millones activados
  • 60% más barato que Qwen 3
  • 8 veces más rápido
  • El precio del token es 1/18 del de Gemini 3 Pro

Esto no es un avance tecnológico, es una guerra de precios. Los televisores LCD también bajaron de precio de esta manera en el pasado. La primera empresa en caer por debajo de los $1000 no fue la que tenía la mejor tecnología, pero fue la ganadora.

Consejos pragmáticos

Si eres desarrollador, ¿qué significa esto?

  1. No entrenes tu propio modelo. A menos que seas OpenAI, Anthropic o Alibaba, entrenar un modelo es quemar dinero. Usa la API.

  2. Concéntrate en el precio, no en los parámetros. 397 mil millones de parámetros suena genial, pero a tus usuarios no les importa. Les importa la velocidad de respuesta y el costo.

  3. Prepárate para migrar. LLM es un producto básico, lo que significa que es reemplazable. Hoy usa GPT, mañana usa Claude y pasado mañana usa Qwen. Tu arquitectura debería admitir este cambio.

La interesante paradoja

Las personas que más saben sobre LLM son las que menos hablan de LLM.

"Andrej Karpathy escribió un mini GPT con 240 líneas de Python puro. Sin TensorFlow. Sin PyTorch. Solo matemáticas. Demuestra que los LLM no son magia, son solo la predicción del siguiente token."

Cuando comprendes que la "predicción del siguiente token" es todo lo que es esta tecnología, gran parte de la exageración desaparece. Esto no es menospreciar. Un microondas solo calienta moléculas de agua, pero cambió la cocina.

Próximo paso

LLM se convertirá en algo como JPEG: omnipresente, nadie lo discute, pero indispensable.

Hasta entonces, las personas inteligentes elegirán al proveedor más barato en la guerra de precios. Porque cuando la tecnología se convierte en un producto básico, lo único que importa es el costo.

Published in Technology

You Might Also Like