Çin merkezli yapay zeka girişimi DeepSeek, büyük dil modelleri (LLM) alanında ezber bozan bir adım attı. Şirket, yapay zekaların insan müdahalesine ihtiyaç duymadan kendi kendini geliştirebilmesini sağlayacak yeni nesil bir mimari tanıttı. “Kendi ilkelerine dayalı eleştiri ayarı” (Self-Principled Critique Tuning – SPCT) ve “üretken ödül modellemesi” (Generative Reward Modeling – GRM) adlı bu iki sistem sayesinde yapay zeka modelleri, yanıtlarını kendi oluşturdukları standartlara göre değerlendirip, eksiklerini analiz ederek sürekli iyileşme süreci başlatabiliyor.
Büyük Model Yerine Daha Akıllı Süreç
Yaygın olarak uygulanan yöntemlerde yapay zekaların geliştirilmesi için daha büyük modellerin eğitilmesi gerekiyor. Ancak bu süreç hem yüksek işlem gücü hem de yoğun insan emeği gerektiriyor. DeepSeek ise bu soruna radikal bir alternatif sunuyor: Modelin içine entegre edilen bir ‘yargıç’ sistemi.
Bu sistem, yapay zekanın verdiği her yanıtı eş zamanlı olarak analiz edip değerlendiriyor. Değerlendirme, hem modelin kendi tanımladığı kurallar hem de ideal bir cevabın sahip olması gereken özellikler baz alınarak yapılıyor. Eğer cevap bu kriterleri karşılıyorsa, yapay zeka modeline olumlu geri bildirim veriliyor. Böylece model sürekli ve gerçek zamanlı olarak kendini geliştirebiliyor.
DeepSeek-GRM: Yapay Zeka Kendi Kendini Eğitiyor
DeepSeek, bu sistemi “DeepSeek-GRM” adıyla duyurdu. GRM mekanizması, yapay zeka tarafından oluşturulan içerikleri kullanıcı beklentileriyle karşılaştırıyor. Ardından SPCT yöntemiyle içerik analiz edilerek modele geri bildirim sağlanıyor. Bu yaklaşım, yapay zekanın yalnızca doğru cevaplar üretmesini değil, cevaplarının kalitesini sürekli yükseltmesini sağlıyor.
Bu yapı, geleneksel yöntemlerin aksine büyük modellerin yerine birden fazla küçük ve eşzamanlı değerlendirme sistemleri kullanarak daha etkili sonuçlar üretiyor. Yani DeepSeek, “büyütmek yerine derinleştirmek” stratejisiyle sektöre yeni bir yön veriyor.
ChatGPT’ye Rakip R1’in Ardından Sırada R2 mi Var?
DeepSeek, 2025’in Ocak ayında piyasaya sürdüğü sohbet robotu R1 ile büyük ilgi toplamıştı. Şirket, bu modelin OpenAI tarafından geliştirilen ChatGPT kadar etkili olduğunu; üstelik çok daha düşük maliyetle çalıştığını öne sürmüştü. Yeni yayınlanan akademik çalışmayla birlikte DeepSeek’in bir sonraki nesil modeli olan R2 üzerinde çalıştığına dair iddialar da güçlenmiş durumda. Henüz şirketten resmi bir açıklama gelmemiş olsa da, sektörde beklentiler yükselmiş durumda.
Rakiplerinden Daha Hızlı ve Doğru Cevaplar
DeepSeek araştırmacıları, SPCT ve GRM sistemleriyle geliştirilen yapay zeka modellerinin, Google’ın Gemini, Meta’nın Llama ve OpenAI’nin GPT-4o modellerine kıyasla daha doğru, hızlı ve kullanıcı odaklı cevaplar üretebildiğini savunuyor. Bu yeni yaklaşımın özellikle çok adımlı akıl yürütme ve bağlam analizi gibi karmaşık görevlerde öne çıktığı belirtiliyor.
Tsinghua Üniversitesi İş Birliği ve Açık Kaynak Planı
DeepSeek’in bu yenilikçi teknolojileri geliştirirken Çin’in önde gelen üniversitelerinden Tsinghua Üniversitesi ile iş birliği yaptığı bildirildi. Şirket ayrıca, bu gelişmiş modelleri açık kaynaklı olarak yayınlamayı planladığını duyurdu. Bu hamle, yapay zeka araştırmalarının daha geniş kitlelere yayılmasını sağlayacak önemli bir gelişme olabilir.
Ancak DeepSeek, modellerin ne zaman ve hangi koşullarda açık kaynaklı sunulacağına dair net bir tarih paylaşmadı.