Claude Code vs Codex: Jeg så 38 minutters test, forskellen er større end forventet
Claude Code vs Codex: Jeg så 38 minutters test, forskellen er større end forventet
Først konklusionen: Hvis du er en uafhængig udvikler, eller har brug for hurtigt at omdanne ideer til produkter, vælg Claude Code. Der er ikke meget at overveje.
Jeg bruger normalt primært Claude Code, Codex åbner jeg kun lejlighedsvis for at prøve. Denne præference er ikke bare en trend; Claude Code opdateres så hurtigt, og grundlæggeren Boris Churney deler ofte teamets erfaringer med at bruge det til reel udvikling på Twitter. Det er ikke en demo, men rigtige ting, der kører i produktionsmiljøer.
Hvad med Codex? Evnerne er bestemt stærke, jeg har lavet et par små programmer med det. Der er folk i kredsen, der siger, at Codex er mere passende til backend og sikkerhed.
Clawdbot grundlægger Peter Steinberger sagde, at han brugte cirka 10 dage på vibe coding for at lave prototypen af Clawdbot, hovedsageligt afhængig af Claude Code og Codex til udvikling, hvor han i højere grad stolede på Codex til kompleks kodning og kernefunktioner.
Så hvem er egentlig bedre som AI-programmeringsværktøj? Jeg var tidligere også usikker.
Indtil jeg så denne test.
Den udenlandske blogger Mansel Scheffel lavede et meget hardcore eksperiment: Giv de to værktøjer helt identiske prompts og lad dem bygge en applikation fra bunden og implementere den. Hele processen blev optaget, 38 minutter.
I. Eksperimentindstilling: En helt fair duel
Opgaven er meget simpel, men også meget komplet: Byg en applikation kaldet "Rival" til konkurrentanalyse.
Brugeren indtaster virksomhedens URL, og applikationen henter automatisk information om denne virksomhed og dens konkurrenter og genererer en komplet konkurrenceanalyse rapport. En sådan analyse ville koste mindst 10.000 dollars, hvis man fik et konsulentfirma til at gøre det.
Teknologisk stak: Supabase (database + autentificering) + Firecrawl (web scraping) + Vercel (implementering)
Regler: Helt identiske prompts, ingen ekstra hints, se hvem der kan fuldføre det selvstændigt.
II. Første runde: Planlægningsfase
Codex spørger straks om ti forskellige spørgsmål.
- Hvem er målbrugeren?
- Hvilken model skal bruges til analysen?
- Hvilken autentificeringsmetode skal vælges?
- Hvordan skal UI-stilen defineres?
- Hvad skal den maksimale standardbrug være?
Det begyndte bare at skrive kode.
Bloggerens vurdering var præcis: "Codex er som en forsigtig praktikant, Claude Code er som en selvsikker veteran."
III. Anden runde: Byggehastighed
Så kom den lange ventetid.
- Claude Code: Færdig på cirka 1 time
- Codex: Over 2 timer, stadig i gang
IV. Tredje runde: UI-kvalitets sammenligning
Efter begge sider er implementeret, åbnede bloggeren grænsefladen for at sammenligne.
Claude Codes grænseflade: Ikke fantastisk, men brugbar. Layoutet er rimeligt, skrifttypen normal.
Codex' grænseflade: Bloggeren klagede straks —
"For at være ærlig, denne grænseflade er forfærdelig. Det er 2026, hvordan kan man generere sådan en skrifttype og afstand?"
V. Fjerde runde: Funktionstest
Den virkelige test kom: Lad begge sider analysere ClickUp.
Claude Code:
Den første gang kørte den med fejl. Men reparationen gik hurtigt, problemet blev lokaliseret på få minutter (JWT-valideringskonfiguration), og det blev rettet inden for 4 minutter.
Efter reparationen lykkedes det at hente ClickUp og dets konkurrenter: Monday, Notion, Asana, Atlassian. Rapporten blev også genereret.
Codex:
Stødte på den samme fejl.
Det tog 19 minutter at finde problemet.
Efter reparationen virkede det stadig ikke. Bloggeren ventede længe igen og gav til sidst op.
VI. Femte runde: Tredjeparts vurdering
Bloggeren bad Gemini Pro 3 om at bedømme de to kodebaser blindt. Denne del var ret interessant.
På backend-sikkerhedsområdet: Codex vandt.
Gemini mente, at dens sikkerhedsarkitektur var mere moden: fuld række niveau sikkerhedspolitik (RLS), uforanderlige revisionslogfiler, autorisationsmodeller er alle bedre implementeret. Dette bekræftede også opfattelsen i kredsen — til backend og sikkerhed, har Codex bestemt en metode.
På frontend-kvalitet: Claude Code vandt klart.
Kodeintegritet, logisk klarhed, UI-implementeringskvalitet var alle tydeligt bedre.
Bloggerens opsummering var meget direkte:
"Du kan overbevise mig om, at Codex er mere sikkert, men du kan ikke overbevise mig om at bruge det. Fordi brugeroplevelsen er så dårlig. Et værktøj, der ikke engang kan udføre grundlæggende funktioner, hvad nytter det så at være sikkert?"
VII. Sammenfatning af kerneforskelle
Efter at have set denne test har jeg ændret mening lidt.
Tidligere troede jeg, at de to værktøjer havde deres fordele og ulemper, og hvilket man vælger afhænger af scenariet. Nu mener jeg, at hvis du er en uafhængig udvikler, eller har brug for hurtigt at validere ideer og bygge MVP'er, så er Claude Codes effektivitet og pålidelighed langt bedre. Tid er penge, når Codex spørger dig det tiende spørgsmål, kan Claude Code allerede være i gang.
Men hvis du arbejder med enterprise-level backend og har strenge sikkerhedskrav, er Codex værd at overveje. Forudsat at du har tålmodighed.

