Bombe trifft ein! Anleitung für unbegrenzte Tokens mit Claude Code lokal

2/11/2026
2 min read

Claude Code ist stark, aber der Token-Verbrauch kann einem echt wehtun!

Endlich kann Claude Code mit lokalen Modellen arbeiten, die Einrichtung ist sehr einfach.

Die folgende Umgebung ist ein Mac Mini4. Eine Windows-Umgebung ist ebenfalls möglich.

In der heutigen Zeit, wenn man mit Desktop-KI spielen möchte, empfiehlt es sich, einen Mac M-Series Mini-PC wie den mini4\mini4 pro\m3 ultra\m4 max anzuschaffen – ein persönliches Desktop-KI-Wunderwerkzeug.

Zunächst muss LM Studio auf die neueste Version, also 0.4.1, aktualisiert werden, da die neueste Version Unterstützung für Claude Code hinzugefügt hat. (Ollama ist auch möglich.)

Du kannst jedes Open-Source-Modell lokal verwenden, solange der Arbeitsspeicher deines Macs ausreicht. Wir nehmen als Beispiel gpt-oss-20b-mlx, ein Open-Source-Modell von OpenAI.

Ein wichtiger Hinweis: Die Kontextlänge voll ausreizen, also die Kontextlänge auf das vom Modell unterstützte Maximum ziehen, da die Leistung von Agenten bei mehrfachen Aufgaben stark von der Kontextlänge abhängt – zu kurz geht nicht. Dieser Parameter muss auch basierend auf dem Arbeitsspeicher deines Macs und der Inferenzgeschwindigkeit des Modells ausbalanciert werden. Noch ein Hinweis: In der Mac-Umgebung priorisiert MLX-formatierte Modelle herunterladen, die Inferenzgeschwindigkeit ist schneller als bei GGUF-formatierten Modellen.

Als nächstes installieren wir claude code im Terminal der Kommandozeile.

Umgebungsvariablen konfigurieren:

export ANTHROPIC_AUTH_TOKEN=lmstudio
export ANTHROPIC_BASE_URL=http://localhost:1234

Claude Code selbst installieren:

npm install -g @anthropic-ai/claude-code

Dann Claude Code starten:

claude --model gpt-oss-20b-mlx

Jetzt wird Claude Code dein lokales Modell für die Ausgabe aufrufen.

Neben der Verwendung im Terminal kann es auch in VS Code genutzt werden, die Konfiguration ist wie folgt:

Zuerst installieren wir das Claude Code for VS Code Plugin.

Dann die Umgebungsvariablen einstellen:

{    "claudeCode.environmentVariables": [        { "name": "ANTHROPIC_BASE_URL", "value": "http://localhost:1234" },         { "name": "ANTHROPIC_AUTH_TOKEN", "value": "lmstudio" }     ]}

Dann kann es losgehen.

Denkaufgabe: Ist Claude Code ohne Anthropic-Modelle noch dasselbe Claude Code?

Das von uns verwendete Modell gpt-oss-20b-mlx kann natürlich nicht mit Opus 4.5 mithalten, aber wenn du lokal Kimi K2.5 eingesetzt hast, scheint es derzeit, dass die Fähigkeiten Opus 4.5 in nichts nachstehen.

Published in Technology

You Might Also Like