¡Llega el As! Guía de Claude Code con Tokens Ilimitados en Local

2/11/2026
2 min read

Claude Code es potente, ¡pero el consumo de tokens duele en el hígado!

Finalmente, Claude Code puede trabajar con modelos locales, y la configuración es muy sencilla.

El siguiente entorno es Mac Mini4. El entorno Windows también es posible.

En la era actual, si juegas con IA de escritorio, se recomienda adquirir un mini PC Mac de la serie M, como mini4\mini4 pro\m3 ultra\m4 max, un dispositivo de IA personal imprescindible para el escritorio.

Primero, necesitas actualizar LM Studio a la última versión, es decir, 0.4.1, porque la versión más reciente añade soporte para Claude Code. (Ollama también es posible)

Puedes cargar cualquier modelo de código abierto en tu local, siempre que la memoria de tu Mac sea suficiente. Tomemos como ejemplo gpt-oss-20b-mlx, que es un modelo de código abierto de OpenAI.

Nota importante: Lleva el Context length al máximo, es decir, la longitud del contexto hasta el máximo que soporte el modelo, porque el rendimiento de tareas múltiples del agente depende mucho de la longitud del contexto; si es pequeña, no funcionará bien. Este parámetro también debe ajustarse en equilibrio según la memoria de tu Mac y la velocidad de inferencia del modelo. Otra nota: En entorno Mac, prioriza la descarga de modelos en formato MLX, ya que la velocidad de inferencia es más rápida que la de los modelos en formato GGUF.

A continuación, instalamos claude code en la terminal de línea de comandos.

Configura las variables de entorno:

export ANTHROPIC_AUTH_TOKEN=lmstudio
export ANTHROPIC_BASE_URL=http://localhost:1234

Instala el núcleo de claude code:

npm install -g @anthropic-ai/claude-code

Luego, inicia claude code:

claude --model gpt-oss-20b-mlx

En este punto, claude code utilizará tu modelo local para generar la salida.

Además de usarlo en la terminal, también se puede usar en VS Code, con la siguiente configuración:

Primero instalamos el complemento Claude Code for VS Code.

Luego configuramos las variables de entorno:

{    "claudeCode.environmentVariables": [        { "name": "ANTHROPIC_BASE_URL", "value": "http://localhost:1234" },         { "name": "ANTHROPIC_AUTH_TOKEN", "value": "lmstudio" }     ]}

Y luego ya puedes ponerte a trabajar.

Pregunta para reflexionar: ¿Sigue siendo el mismo Claude Code si no usas modelos de Anthropic?

La capacidad del modelo gpt-oss-20b-mlx que usamos, por supuesto, no se puede comparar con Opus 4.5, pero si tienes desplegado Kimi K2.5 en tu entorno local, actualmente parece que su capacidad no es en absoluto inferior a Opus 4.5.

Published in Technology

You Might Also Like