Codex Akıllı Aracını Anlamak İster misiniz? Bu Derinlemesine Analizi Kaçırmayın!

2/14/2026
4 min read

Codex Akıllı Aracını Anlamak İster misiniz? Bu Derinlemesine Analizi Kaçırmayın!

OpenAI az önce "alışılmadık" bir şey yaptı.

Genellikle OpenAI, daha güçlü modeller (örneğin o1) yayınlar, ancak bu sefer, Codex CLI'nin temel mantığını açık kaynaklı hale getirmekle kalmayıp, olgun bir kodlama akıllı aracının (Coding Agent) nasıl çalıştığını adım adım açıklayan derinlemesine bir teknik blog olan 《Unrolling the Codex agent loop》'u yayınladılar.

Codex CLI

Claude Code ve Cursor'ın çılgınca popüler olduğu şu günlerde, OpenAI'nin bu makalesi sadece kaslarını göstermekle kalmıyor, aynı zamanda bir "Agent mimarı için tuzaklardan kaçınma kılavuzu" niteliğinde. İster AI programlama araçlarını iyi kullanmak, ister kendi Agent'ınızı geliştirmek isteyin, bu makale kelimesi kelimesine okunmaya değer.

Makalenin tamamı 8300+ kelime ve okunması yaklaşık 20 dakika sürüyor.

Öncelikle, Codex CLI nedir?

Codex CLI, OpenAI tarafından üretilen, yerel bilgisayarlarda çalıştırılabilen veya kod düzenleyicilere kurulabilen açık kaynaklı bir kodlama Agent aracıdır. VS Code, Cursor, Windsurf vb. destekler.

Açık kaynak adresi: https://github.com/openai/codex

Codex CLI arayüzü

Bu sefer tanıtılacak olan Agent Loop (aracı döngüsü) ise Codex CLI'nin temel mantığıdır: kullanıcıları, modeli ve model çağrılarını koordine etmekten sorumludur, böylece değerli araçlar arasındaki etkileşimler gerçekleştirilebilir.

Agent Loop (Akıllı Aracı Döngüsü)

Model sadece bir bileşendir, Agent (akıllı aracı) bir ürün oluşturabilir.

Her AI Agent'ının özü, "akıllı aracı döngüsü (Agent Loop)" olarak adlandırılır. Akıllı aracı döngüsünün şematik diyagramı aşağıdaki gibidir:

Agent Loop şematik diyagramı

Genellikle AI programlamanın "ben sorarım, o cevaplar" olduğunu düşünürüz. Ancak Codex CLI'nin içinde, bu karmaşık bir sonsuz döngü sürecidir...

Standart bir Agent Loop aşağıdaki adımları içerir:

  • Kullanıcı talimatları: Kullanıcının girdiği bir dizi metin talimatı (örneğin "bu fonksiyonu yeniden yapılandır").
  • Model çıkarımı: Model, doğrudan cevap vermeye mi yoksa bir aracı (Tool Call) çağırmaya mı karar verir.
  • Araç çağrısı: Model, list files veya run shell'i çağırmaya karar verirse, CLI bu komutları yerel olarak yürütür.
  • Gözlem (Observation): Aracın yürütülmesinin sonuçları (kod, hatalar, dosya listesi) yakalanır.
  • Döngü: Bu sonuçlar, konuşma geçmişine eklenir ve tekrar modele verilir. Model, sonuçları gördükten sonra bir sonraki adımı belirler.
  • Sonlandırma: Model, görevin tamamlandığını düşünene kadar nihai yanıtı verir.

"Kullanıcı girişi"nden "akıllı aracı yanıtı"na kadar olan tüm süreç, bir konuşma turu olarak adlandırılır (Codex'te bir iş parçacığı olarak adlandırılır).

Çok turlu Agent loop

Konuşma ilerledikçe, modeli akıl yürütmek için kullanılan istem (Prompt) uzunluğu da artar. Bu uzunluk önemlidir, çünkü her modelin, modelin tek bir akıl yürütme çağrısında kullanabileceği maksimum token sayısını temsil eden bir bağlam penceresi vardır.

Model Çıkarımı

Codex CLI, model çıkarımı için Responses API'sine HTTP istekleri gönderir. Codex, aracı döngüsünü yönlendirmek için Responses API'sini kullanır.

Responses API nedir?

Responses API, OpenAI'nin Mart 2025'te piyasaya sürdüğü yeni nesil akıllı aracı geliştirme arayüzüdür. Konuşma, araç çağrıları ve çok modlu işleme yeteneklerini birleştirmeyi ve geliştiricilere daha esnek ve daha güçlü AI uygulama oluşturma deneyimi sunmayı amaçlar.

Codex CLI tarafından kullanılan Responses API uç noktası yapılandırılabilir ve Responses API'sini uygulayan herhangi bir uç nokta ile birlikte kullanılabilir.

Prompt oluşturma süreci

Model Örnekleme (Yanıt Oluşturma)

Responses API'sine yapılan HTTP isteği, Codex konuşmasındaki ilk "tur"u başlatır. Sunucu, Server-Sent Events (SSE) aracılığıyla yanıtı akış halinde döndürür.

Sonraki istem yapısı

Unutmayın, önceki turun istemi, yeni istemin tam bir önekidir. Bu tasarım, sonraki isteklerin verimliliğini önemli ölçüde artırabilir - istem önbelleğe alma mekanizmasından yararlanılabilir.

Çok turlu konuşma istemi artışı

İstemlerin Turlar Arttıkça Sürekli Uzamasının Etkileri

1. Performans açısından

  • Model örnekleme maliyeti artışı: İstemlerin sürekli uzaması, model örnekleme maliyetini artırır, çünkü örnekleme sürecinin daha fazla veri işlemesi gerekir, bu da hesaplama miktarını artırır.
  • Önbellek verimliliği düşüşü: İstemler turlar arttıkça sürekli uzadıkça, tam önek eşleşmesinin zorluğu artar ve önbellek isabet olasılığı azalır.

2. Bağlam penceresi yönetimi açısından

  • Bağlam penceresi kolayca tükenir: İstemlerin sürekli uzaması, konuşmadaki token sayısının hızla artmasına neden olur ve bağlam penceresi eşiğini aştığında, bağlam penceresinin tükenmesine neden olabilir.
  • Sıkıştırma işleminin gerekliliği artışı: Bağlam penceresinin tükenmesini önlemek için, token sayısı eşiği aştığında konuşmayı sıkıştırmak gerekir.

3. Önbellek ıskalama riski açısından

  • Çeşitli işlemler önbellek ıskalamasını kolayca tetikler: İstemlerin uzaması nedeniyle modelin kullanılabilir araçlarını, hedef modeli, sanal alan yapılandırmasını vb. değiştirmek söz konusuysa, önbellek ıskalama riski daha da artar.
  • MCP araçları karmaşıklığı artırır: MCP sunucusu, sağlanan araç listesini dinamik olarak değiştirebilir, uzun süreli konuşmalarda ilgili bildirimlere yanıt vermek önbellek ıskalamasına neden olabilir.

Referans bilgileri: 《Unrolling the Codex agent loop》Kaynak: OpenAI

Published in Technology

You Might Also Like