Büyük Dil Modeli İnce Ayarına (Fine-tuning) Giriş Rehberi: Kavramlar, Yöntemler ve Uygulamalar

2/19/2026
7 min read

Büyük Dil Modeli İnce Ayarına (Fine-tuning) Giriş Rehberi: Kavramlar, Yöntemler ve Uygulamalar

Büyük dil modelleri (LLM'ler) doğal dil işleme alanında önemli ilerlemeler kaydetti ve metin oluşturma, çeviri, soru cevaplama gibi konularda mükemmel performans gösterdi. Ancak, bu modellerin belirli görevlerde veya alanlarda daha iyi performans göstermesini sağlamak için ince ayar (Fine-tuning) önemli bir teknik haline geldi. Bu makale, LLM ince ayarının kavramlarını, yöntemlerini ve pratik uygulamalarını derinlemesine inceleyerek yeni başlayanların hızlı bir şekilde başlamasına yardımcı olacaktır.

İnce Ayar Nedir?

İnce ayar, önceden eğitilmiş büyük bir dil modelini temel alarak, belirli bir görev için veri kümesi kullanılarak ek eğitim yapılması anlamına gelir. Önceden eğitilmiş model zaten genel dil bilgisini öğrenmiştir ve ince ayar, onu belirli görevin ayrıntılarına ve kalıplarına uyarlar. Önceden eğitilmiş modelin geniş bir bilgi içeren bir ansiklopedi olduğunu hayal edin. İnce ayar, modele özellikle "tıp" konusunu tanıtan bir kitap vermek gibidir ve bu da onu tıbbi alanda daha profesyonel hale getirir.

İnce ayar ile sıfırdan eğitim karşılaştırması:

  • Sıfırdan eğitim: Çok fazla işlem kaynağı ve veri gerektirir, eğitim süresi uzundur.
  • İnce ayar: Daha az veri ve işlem kaynağı gerektirir, eğitim süresi kısadır ve genellikle daha iyi sonuçlar elde edebilir.

Neden İnce Ayar Yapmalıyız?

  • Performansı artırmak: Modelin duygu analizi, metin sınıflandırması, makine çevirisi vb. gibi belirli görevlerde daha iyi performans göstermesini sağlar.
  • Alana uyum sağlamak: Modelin finans, hukuk, sağlık vb. gibi belirli alanların bilgi ve stiline uyum sağlamasını sağlar.
  • Kaynakları tasarruf etmek: Sıfırdan eğitime kıyasla, ince ayar işlem kaynaklarını ve zaman maliyetlerini önemli ölçüde azaltabilir.
  • Kontrol edilebilirlik: Geliştiricilerin modelin çıktı stilini ve davranışını daha iyi kontrol etmelerini sağlar.

İnce Ayarın Temel Adımları

  1. Önceden eğitilmiş bir model seçin: Göreve uygun bir önceden eğitilmiş model seçin. Örneğin, metin oluşturma görevi için GPT serisi modelleri, soru cevaplama görevi için BERT serisi modelleri seçebilirsiniz. Hugging Face Model Hub (https://huggingface.co/models) çeşitli önceden eğitilmiş modelleri bulabileceğiniz iyi bir kaynaktır.

  2. Veri kümesini hazırlayın: Yüksek kaliteli, belirli bir görev için veri kümesi hazırlayın. Veri kümesinin boyutu ve kalitesi, ince ayar efektini büyük ölçüde etkiler.

    • Veri temizleme: Verilerdeki hataları, gürültüyü ve tutarsızlıkları temizleyin.
    • Veri etiketleme: Verileri etiketleyin, örneğin metin sınıflandırması için kategorileri, soru cevaplama görevleri için cevapları etiketlemeniz gerekir.
    • Veri bölme: Veri kümesini eğitim kümesi, doğrulama kümesi ve test kümesi olarak bölün.
  3. İnce ayar parametrelerini yapılandırın: Uygun optimize edici, öğrenme oranı, batch size, eğitim epochs vb. parametreleri seçin.

    • Öğrenme oranı: Öğrenme oranı, modelin parametreleri güncelleme hızını kontrol eder. Çok yüksek bir öğrenme oranı modelin kararsız olmasına neden olabilirken, çok düşük bir öğrenme oranı eğitimin yavaşlamasına neden olabilir. Yaygın öğrenme oranı değerleri şunlardır: 1e-3, 1e-4, 1e-5.
    • Batch Size: Batch size, her yineleme eğitiminde kullanılan örnek sayısını belirler. Daha büyük bir batch size eğitim hızını artırabilir, ancak daha fazla bellek tüketebilir.
    • Epochs: Epochs, tüm eğitim veri kümesinin model tarafından geçirilme sayısını ifade eder. Çok fazla epochs aşırı uyuma neden olabilirken, çok az epochs yetersiz eğitime neden olabilir.
  4. İnce ayarı gerçekleştirin: Hazırlanan veri kümesini ve yapılandırılmış parametreleri kullanarak, önceden eğitilmiş model üzerinde ince ayar yapın. Yaygın ince ayar çerçeveleri arasında TensorFlow, PyTorch ve Hugging Face Transformers bulunur.

  5. Modeli değerlendirin: Test kümesini kullanarak ince ayarlı modelin performansını değerlendirin ve gerekli ayarlamaları yapın. Yaygın değerlendirme metrikleri arasında doğruluk, kesinlik, geri çağırma, F1 değeri vb. bulunur.

İnce Ayar Yöntemleri

1. Tam İnce Ayar (Full Fine-tuning)

Bu, önceden eğitilmiş modelin tüm parametrelerini güncelleyen en doğrudan ince ayar yöntemidir.

  • Avantajları: Önceden eğitilmiş modelin bilgisini tam olarak kullanabilir ve belirli görevlerde en iyi performansı elde edebilir.
  • Dezavantajları: Çok fazla işlem kaynağı ve bellek gerektirir, aşırı uyuma eğilimlidir.### 2. Parametre Verimli İnce Ayar (Parameter-Efficient Fine-tuning, PEFT)

Büyük modellerin çok sayıda parametresi olduğundan, tam ince ayar maliyetli olabilir. Parametre verimli ince ayar yöntemleri, hesaplama maliyetlerini ve bellek gereksinimlerini azaltmak için modelin yalnızca küçük bir bölümünün parametrelerini günceller.

  • LoRA (Low-Rank Adaptation)

    LoRA, orijinal modelin parametre güncellemelerini yaklaşık olarak tahmin etmek için düşük ranklı matrisler ekler. Temel fikir, önceden eğitilmiş modelin mevcut ağırlık matrisinin yanına düşük ranklı bir matris eklemek ve bu düşük ranklı matrisleri eğiterek alt görevlere uyum sağlamaktır. Bu sayede, yalnızca az sayıda parametrenin eğitilmesi gerekir, bu da hesaplama maliyetlerini önemli ölçüde azaltır.

    # Hugging Face PEFT kütüphanesini kullanarak LoRA ince ayarı
    from peft import LoraConfig, get_peft_model
    
    # LoRA yapılandırmasını tanımla
    lora_config = LoraConfig(
        r=8, # Düşük ranklı matrisin rankı
        lora_alpha=32, # LoRA ölçekleme faktörü
        lora_dropout=0.05, # LoRA dropout olasılığı
        bias="none",
        task_type="CAUSAL_LM" # Görev türü
    )
    
    # Önceden eğitilmiş modeli yükle
    model = AutoModelForCausalLM.from_pretrained(model_name_or_path)
    
    # LoRA'yı modele uygula
    model = get_peft_model(model, lora_config)
    model.print_trainable_parameters()
    
  • Prefix Tuning

    Prefix Tuning, giriş dizisinin önüne bazı eğitilebilir "prefix" vektörleri ekler ve bu prefix vektörlerini eğiterek modelin davranışını ayarlar. Bu yöntem, orijinal modelin parametrelerini değiştirmeyi gerektirmez, bu nedenle çok verimlidir.

  • Adapter Tuning

    Adapter Tuning, önceden eğitilmiş modelin her katmanına bazı küçük sinir ağı modülleri (adapters) ekler ve bu adapters'ları eğiterek alt görevlere uyum sağlar. Tam ince ayarla karşılaştırıldığında, Adapter Tuning yalnızca az sayıda parametrenin eğitilmesini gerektirir ve aynı zamanda iyi performansı koruyabilir.

3. Prompt Tuning

Prompt Tuning, önceden eğitilmiş modelin beklenen çıktıyı üretmesini sağlamak için giriş istemini (prompt) optimize eden daha hafif bir ince ayar yöntemidir. Bu yöntem, modelin herhangi bir parametresini değiştirmeyi gerektirmez, bu nedenle çok verimlidir.

  • Hard Prompt Tuning: Elle tasarlanmış prompt.
  • Soft Prompt Tuning: Eğitilebilir vektörleri prompt olarak kullanır ve bu vektörleri eğiterek prompt'u optimize eder.
# Eğitilebilir bir prompt (Soft Prompt) kullanma
from peft import PromptTuningConfig, get_peft_model, PromptTuningInit, TaskType

# Prompt Tuning yapılandırmasını tanımla
prompt_tuning_config = PromptTuningConfig(
    task_type=TaskType.CAUSAL_LM,
    prompt_tuning_init=PromptTuningInit.TEXT,
    num_virtual_tokens=20, # prompt'un uzunluğu
    prompt_tuning_init_text="Aşağıdaki soruları cevaplayın:", # Başlangıç prompt'u
    tokenizer_name_or_path=model_name_or_path,
)
```# Önceden Eğitilmiş Modeli Yükleme
model = AutoModelForCausalLM.from_pretrained(model_name_or_path)

# Prompt Tuning'i Modele Uygulama
model = get_peft_model(model, prompt_tuning_config)
model.print_trainable_parameters()

Pratik İpuçları

  • Veri Artırma (Data Augmentation): Eğitim verilerini eş anlamlı kelime değiştirmeleri, cümle yeniden düzenlemeleri vb. gibi rastgele dönüşümlerle çeşitlendirerek veri çeşitliliğini artırın ve aşırı öğrenmeyi önleyin.
  • Erken Durdurma (Early Stopping): Eğitim sürecinde, doğrulama kümesindeki performansı izleyin ve performans artık iyileşmediğinde, aşırı öğrenmeyi önlemek için eğitimi erken durdurun.
  • Öğrenme Oranı Azaltma (Learning Rate Decay): Eğitim sürecinde, öğrenme oranını kademeli olarak azaltmak, modelin optimum çözüme daha istikrarlı bir şekilde yakınsamasını sağlayabilir.
  • Düzenlileştirme (Regularization): Model parametrelerini kısıtlamak ve aşırı öğrenmeyi önlemek için L1 veya L2 düzenlileştirmesi kullanın.
  • Önceden Eğitilmiş Gömme (Embedding) Kullanma: Örneğin GloVe veya Word2Vec, modelin genelleme yeteneğini artırabilir.

Araç Önerileri

  • Hugging Face Transformers: Zengin önceden eğitilmiş modeller ve ince ayar araçları sağlar, LLM geliştiricileri için ilk tercihtir.
  • PEFT (Parameter-Efficient Fine-Tuning): Hugging Face'in parametre açısından verimli ince ayar yöntemleri için özel bir kütüphanesi.
  • TensorBoard: Eğitim sürecini görselleştirmek için kullanılan bir araçtır, model performansını izlemenize ve parametreleri ayarlamanıza yardımcı olabilir.
  • Weights & Biases: Makine öğrenimi deneylerini izlemek ve görselleştirmek için bir platform.

Gerçek Dünya Uygulamaları

  • Duygu Analizi (Sentiment Analysis): LLM'leri ince ayar yapmak, duygu analizinin doğruluğunu artırabilir, örneğin bir film incelemesindeki duygunun olumlu mu yoksa olumsuz mu olduğunu belirlemek.
  • Metin Sınıflandırması (Text Classification): LLM'leri ince ayar yapmak, metin sınıflandırma görevleri için kullanılabilir, örneğin haber makalelerini farklı konu kategorilerine sınıflandırmak.
  • Makine Çevirisi (Machine Translation): LLM'leri ince ayar yapmak, makine çevirisinin kalitesini artırabilir, örneğin İngilizce'yi Çince'ye çevirmek.
  • Soru-Cevap Sistemleri (Question Answering Systems): LLM'leri ince ayar yapmak, kullanıcıların sorduğu soruları yanıtlamak gibi soru-cevap sistemleri oluşturmak için kullanılabilir.
  • Kod Üretimi (Code Generation): İnce ayarlı LLM'ler, kod parçacıkları oluşturmak veya kodu tamamlamak için kullanılabilir. Örneğin GitHub Copilot başarılı bir uygulama örneğidir.

Dikkat Edilmesi Gerekenler

  • Aşırı Öğrenme (Overfitting): İnce ayar sürecinde aşırı öğrenme eğilimi vardır, veri artırma, erken durdurma, düzenlileştirme vb. gibi ilgili önlemler alınmalıdır.
  • Yıkıcı Unutma (Catastrophic Forgetting): İnce ayar, modelin ön eğitim aşamasında öğrendiği bilgileri unutmasına neden olabilir, ince ayar stratejileri dikkatli seçilmelidir.
  • Veri Yanlılığı (Data Bias): İnce ayar veri kümesinde bir önyargı varsa, modelin belirli gruplarda kötü performans göstermesine neden olabilir.
  • Güvenlik Sorunları (Security Issues): İnce ayarlı modeller zararlı veya uygunsuz içerik oluşturabilir, güvenlik değerlendirmesi ve filtreleme gereklidir.

ÖzetLLM ince ayarı, model performansını artırmak, belirli görevlere ve alanlara uyum sağlamak için kritik bir teknolojidir. Uygun önceden eğitilmiş modeli seçerek, yüksek kaliteli bir veri kümesi hazırlayarak, uygun ince ayar parametrelerini yapılandırarak ve çeşitli pratik teknikleri birleştirerek, LLM'yi başarıyla ince ayarlayabilir ve çeşitli uygulama senaryolarında mükemmel sonuçlar elde edebilirsiniz. Bu makale, hızlı bir şekilde LLM ince ayarına başlamanıza yardımcı olacak bir başlangıç rehberi sunmaktadır. Teknolojinin sürekli gelişimiyle birlikte, gelecekte daha verimli ve kullanışlı ince ayar yöntemleri ortaya çıkacaktır.

Published in Technology

You Might Also Like