- Bilim ve Teknoloji
- 21.08.2025 17:13
685 milyar parametreli hibrit mimarisiyle dikkat çeken DeepSeek-V3.1, hem kodlama hem mantık yürütme hem de sohbet işlevlerini tek modelde birleştiriyor. Açık kaynaklı olması, düşük maliyetli kullanımı ve çip uyumluluğu ile sektörde dengeleri değiştirmeye aday.
Çin merkezli yapay zeka şirketi DeepSeek, merakla beklenen yeni nesil yapay zeka modeli V3.1’i tanıttı. Önceki R1 modeliyle büyük ses getiren şirket, bu kez “tek model, iki mod” stratejisiyle dikkat çekiyor. 685 milyar parametreli dev model, kodlama, sohbet ve derin muhakeme yeteneklerini tek bir sistemde birleştirirken, Mixture-of-Experts (MoE) mimarisi sayesinde düşük maliyetli kullanım vadediyor. Açık kaynak yapısıyla dikkat çeken V3.1, hem teknoloji dünyasında hem de yapay zeka rekabetinde önemli bir dönüm noktası olabilir.
Çin merkezli yapay zekâ girişimi DeepSeek, büyük ilgi gören R1 modelinin ardından bu kez V3.1 sürümüyle sahneye çıktı. Yeni model, DeepSeek’in bugüne kadar geliştirdiği en iddialı sistem olarak öne çıkıyor.
V3.1, “tek model, iki mod” stratejisiyle hem derin muhakeme hem de hızlı işlem yapabilme kabiliyetini kullanıcıya sunuyor. “Düşünme” ve “düşünmeme” modları arasında geçiş yapılabilmesi, farklı kullanım senaryoları için esneklik sağlıyor.
DeepSeek-V3.1’in en dikkat çeken özelliği, devasa boyutuna rağmen düşük maliyetli çalışabilmesi. Bu başarının arkasında, Mixture-of-Experts (MoE) adlı mimari yer alıyor.
Model toplamda 685 milyar parametreye sahip ancak işlem sırasında yalnızca konuyla ilgili 37 milyarlık kısmı aktif oluyor. Bu da sistemin hem verimli hem de ekonomik çalışmasını sağlıyor.
Modelin sunduğu 128 bin token’lık bağlam penceresi, uzun metinleri tek seferde analiz edebilmesine olanak tanıyor. Bu da raporlar, sözleşmeler veya kod tabanları gibi büyük belgelerle çalışan kullanıcılar için ciddi avantaj anlamına geliyor.
V3.1, örneğin 250-300 sayfalık bir kitabı kesintisiz şekilde işleyebiliyor ve önceki bağlamlara referans verebiliyor.
Erken testlere göre, V3.1 özellikle kodlama görevlerinde yüksek başarı oranları yakaladı.
Aider kıyaslamasında %71,6 başarı oranı elde eden model, Anthropic’in Claude Opus 4 modelini geride bırakmayı başardı. Üstelik DeepSeek’in modeli aynı görevleri rakiplerine kıyasla çok daha düşük maliyetlerle tamamlayabiliyor.
DeepSeek, R1 modelinde olduğu gibi V3.1’i de açık kaynak olarak yayınladı. MIT lisansıyla paylaşılan model, Hugging Face üzerinden indirilebiliyor ve ticari kullanım için de serbest.
Yaklaşık 700 GB boyutundaki modelin yerel çalıştırılması teknik altyapı gerektiriyor, ancak API yoluyla bulut üzerinden erişim sağlamak mümkün.
Teknoloji çevrelerinde merakla beklenen R2 modelinden önce gelen V3.1, DeepSeek’in model stratejisinde değişikliğe gittiğini gösteriyor.
R1, saf akıl yürütme üzerine kurulu bir modeldi. Ancak DeepSeek, artık tüm özellikleri bir araya getiren hibrit yapılara yönelmiş durumda. Bu da R2’nin iptal edilmiş olabileceği ihtimalini gündeme getiriyor.
V3.1, R1’e göre yanıtları %50’ye kadar daha hızlı üretirken, “ajan tabanlı” sistemlerin altyapısı olarak konumlanıyor.
V3.1 ile birlikte kullanıcılar artık hangi modelin hangi görevde daha iyi çalışacağını düşünmek zorunda kalmıyor.
Tek model içinde ihtiyaç duyuldukça düşünme modu açılabiliyor. Böylece hem hız hem derinlik tek sistemde toplanmış oluyor.
Benzer bir stratejiyi OpenAI da GPT-5 ile benimsemişti.
DeepSeek-V3.1, farklı donanımlarla çalışabilmesi için FP8, BF16, F32 gibi çeşitli tensör formatlarını destekliyor.
Özellikle FP8 formatının, Çin yapımı çiplerle uyumlu olması dikkat çekiyor. Bu da Çin’in ABD yaptırımlarına karşı geliştirdiği yerli çip stratejisini destekliyor.
Modelin açık kaynaklı olması şeffaflık açısından önemli bir adım. Ancak verilerin büyük ihtimalle Çin’deki sunucularda işlenmesi, bazı kullanıcılar için güvenlik sorularını beraberinde getiriyor.
DeepSeek, tıpkı diğer büyük modeller gibi kullanıcı verilerini işliyor. Bu nedenle hassas bilgilerin paylaşılmaması öneriliyor. Güvenlik konusunda daha net sonuçlar, bağımsız araştırmacıların denemeleriyle ortaya çıkacak.
(Alındığı Kaynak: NTV)
Kaynak : HABER MERKEZİ