2025 senesinde LLM modelleri

Sene bitmeden, Andrew Karpathy’nin yazısını sizler için derledik:

2025, LLM’lerde (Large Language Models – Büyük Dil Modelleri) güçlü ve olaylı bir ilerleme yılı oldu. Aşağıda, bana göre kişisel olarak dikkat çekici ve hafif şaşırtıcı olan bazı “paradigma değişimlerini” — yani kavramsal olarak manzarayı değiştiren şeyleri — sıralıyorum.


1. Doğrulanabilir Ödüllerden Pekiştirmeli Öğrenme (RLVR)

2025’in başında, tüm laboratuvarlarda LLM üretim yığını kabaca şöyleydi:

  • Ön-eğitim (GPT-2/3, ~2020)
  • Denetimli İnce Ayar (SFT) (InstructGPT, ~2022)
  • İnsan Geri Bildiriminden Pekiştirmeli Öğrenme (RLHF) (~2022)

Bu, bir süredir üretim kalitesinde LLM eğitmek için istikrarlı ve kanıtlanmış bir reçeteydi.
2025’te ise Doğrulanabilir Ödüllerden Pekiştirmeli Öğrenme (RLVR) bu karışıma eklenen fiili yeni ana aşama olarak ortaya çıktı.

LLM’leri otomatik olarak doğrulanabilir ödüllere karşı (ör. matematik / kod bulmacaları gibi ortamlar) eğittiğinizde, modeller insanlara “akıl yürütme” gibi görünen stratejileri kendiliğinden geliştiriyor. Problemleri ara adımlara bölmeyi, ileri–geri giderek çözmeyi öğreniyorlar (örnekler için DeepSeek R1 makalesine bakılabilir).

Bu tür stratejiler önceki paradigmalarla çok zor elde edilirdi; çünkü bir LLM için “ideal” akıl yürütme izinin ne olduğu net değildir. Modelin, ödül optimizasyonu yoluyla kendisi keşfetmesi gerekir.

SFT ve RLHF görece kısa ve ince aşamalarken (hesaplama açısından küçük ince ayarlar), RLVR oyunlanamayan, nesnel ödül fonksiyonlarına dayandığı için çok daha uzun optimizasyonlara izin verir. RLVR’ın yüksek yetenek / dolar oranı sunduğu görüldü ve başlangıçta ön-eğitim için ayrılan hesaplama gücünü adeta yuttu.

Sonuç olarak 2025’teki yetenek artışının büyük kısmı, aynı boyutlarda ama çok daha uzun RL koşuları yapan LLM’lerden geldi. Ayrıca bu aşamayla birlikte, test zamanındaki hesaplama gücüne bağlı olarak yeteneği ayarlayan tamamen yeni bir düğme (ve buna bağlı bir ölçekleme yasası) kazandık: daha uzun akıl yürütme izleri, daha fazla “düşünme süresi”.

OpenAI o1 (2024 sonu) RLVR’ın ilk gösterimiydi; ancak o3 (2025 başı) farkın sezgisel olarak hissedildiği asıl kırılma noktasıydı.


2. Hayvanlar vs. Hayaletler / Tırtıklı Zekâ

2025, benim (ve sanırım sektörün geri kalanının da) LLM zekâsının “şeklini” daha sezgisel biçimde kavradığımız yıl oldu.

Biz hayvanlar evrimleştirmiyoruz; hayaletler çağırıyoruz.

LLM yığınının her şeyi farklı: sinir mimarisi, eğitim verisi, algoritmalar ve özellikle optimizasyon baskısı. Bu yüzden zekâ uzayında bambaşka varlıklar ortaya çıkması şaşırtıcı olmamalı. Hayvan metaforu burada uygun değil.

Bit düzeyinde bakarsak:
İnsan sinir ağları, kabile halinde hayatta kalmak için optimize edildi.
LLM sinir ağları ise insanlığın metnini taklit etmek, matematik bulmacalarında ödül toplamak ve LM Arena’da upvote almak için optimize ediliyor.

Doğrulanabilir alanlar RLVR’a açıldıkça, LLM’ler bu alanların çevresinde ani yetenek sıçramaları gösteriyor ve genel olarak oldukça tırtıklı (jagged) performans sergiliyorlar:
Aynı anda hem dahi bir polimat, hem de basit bir jailbreak ile verinizi sızdırabilecek kadar kafası karışık bir ilkokul öğrencisi olabiliyorlar.

Bu bağlamda, 2025’te benchmark’lara karşı ciddi bir ilgisizlik ve güvensizlik geliştirdim. Sorunun özü şu: benchmark’lar doğası gereği doğrulanabilir ortamlar ve bu yüzden RLVR’a (ve sentetik veriyle daha zayıf versiyonlarına) fazlasıyla açıklar.

“Benchmark’ları ezip geçip yine de AGI’ye ulaşamamak” nasıl bir şey?

Bu konuları daha detaylı şuralarda yazdım:

  • Animals vs. Ghosts
  • Verifiability
  • The Space of Minds

3. Cursor / Yeni bir LLM uygulama katmanı

Cursor’la ilgili en dikkat çekici şey (bu yılki meteorik yükselişinin ötesinde), yeni bir “LLM uygulama katmanını” net biçimde ortaya koymasıydı. İnsanlar “X için Cursor” demeye başladı.

Bu tür LLM uygulamaları:

  • Context engineering yapar
  • Birden fazla LLM çağrısını, performans–maliyet dengesini gözeterek karmaşık DAG’ler halinde orkestre eder
  • İnsan-döngü-içinde için özel bir GUI sunar
  • Bir “otonomi kaydırıcısı” sağlar

2025 boyunca bu katmanın ne kadar “kalın” olduğu çok tartışıldı. Uygulamaların tamamını LLM laboratuvarları mı kapacak, yoksa bağımsız LLM uygulamaları için verimli alanlar var mı?

Benim sezgim şu:
LLM laboratuvarları genel olarak yetenekli bir üniversite mezununu yetiştirecek.
LLM uygulamaları ise özel veriler, sensörler, aktüatörler ve geri bildirim döngüleriyle bu mezunlardan gerçek profesyonel ekipler oluşturacak.


4. Claude Code / Bilgisayarında yaşayan AI

Claude Code (CC), bir LLM ajanının ilk ikna edici örneği oldu: araç kullanımı ve akıl yürütmeyi döngüsel şekilde bağlayarak uzun süreli problem çözme yapıyor.

Daha da önemlisi: kendi bilgisayarında, senin özel ortamın ve verilerinle çalışıyor.
Bence OpenAI burada hata yaptı; çünkü Codex / ajan vizyonunu ChatGPT’den orkestre edilen bulut konteynerlerine odakladı, localhost’a değil.

AGI son oyununda bulut ajan sürüleri mantıklı olabilir, ama şu anki dünyada — yeteneklerin tırtıklı olduğu ve ilerlemenin görece yavaş olduğu bu ara evrede — ajanları geliştiricilerin bilgisayarında çalıştırmak çok daha anlamlı.

Claude Code bunu doğru sıralamayla yaptı ve minimalist, etkileyici bir CLI formuna soktu. AI artık sadece girdiğin bir web sitesi değil; bilgisayarında yaşayan küçük bir ruh/hayalet.


5. Vibe Coding

2025, AI’ın yalnızca İngilizceyle (doğal dille) etkileyici programlar yazabilecek eşiği aştığı yıl oldu.
“Vibe coding” terimini bu tweet’te tamamen farkında olmadan ortaya atmıştım — bu kadar yayılacağını bilmiyordum.

Vibe coding ile programlama, yalnızca elit profesyonellerin alanı olmaktan çıktı. Herkes yapabiliyor. Bu, daha önce “Power to the People” yazımda anlattığım gibi, LLM’lerin teknoloji yayılımını tersine çevirmesinin bir örneği: bu kez en çok faydayı sıradan insanlar görüyor.

Ama sadece amatörleri güçlendirmiyor; profesyonelleri de, normalde asla yazılmayacak kadar çok yazılım üretir hale getiriyor.

Kod artık:

  • Ücretsiz
  • Geçici
  • Şekillendirilebilir
  • Tek kullanımlık

Vibe coding yazılımı terraform edecek ve iş tanımlarını değiştirecek.


6. Nano Banana / LLM GUI

Google Gemini Nano Banana, 2025’in en paradigma-değiştirici modellerinden biri.
Benim dünya görüşümde LLM’ler, 70’ler–80’ler bilgisayarları gibi yeni bir hesaplama paradigması.

Bu yüzden:

  • Kişisel bilgisayar benzerleri
  • Mikrodenetleyici benzerleri (bilişsel çekirdekler)
  • Ajan internetleri

gibi şeyler göreceğiz.

UI/UX açısından, LLM’lerle sohbet etmek, 1980’lerde komut satırı kullanmaya benziyor. Metin bilgisayarlar için ideal olabilir ama insanlar metin okumayı sevmez. Görsel ve mekânsal bilgi tüketmeyi severler.

Bu yüzden GUI icat edildi.
Aynı şekilde, LLM’ler de bize görsellerle, diyagramlarla, slaytlarla, whiteboard’larla, animasyonlarla konuşmalı.

Nano Banana bunun ilk erken ipucu. Önemli olan sadece görüntü üretmesi değil; metin, görsel ve dünya bilgisinin aynı model ağırlıklarında birleşmiş olması.


TL;DR

2025, LLM’ler için heyecanlı ve hafif şaşırtıcı bir yıldı.
LLM’ler yeni bir zekâ türü olarak ortaya çıkıyor:
Beklediğimden daha zeki ve aynı anda beklediğimden daha aptal.

Yine de son derece kullanışlılar ve sektör henüz potansiyellerinin %10’una bile ulaşmış değil. Alan hâlâ çok açık. Hem hızlı ve sürekli ilerleme göreceğimize, hem de önümüzde yapılacak çok iş olduğuna aynı anda inanıyorum.

Kemerleri bağlayın.

Comments

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir