Haberler
22 Oca 2025
Çinli yapay zeka laboratuvarı DeepSeek, yeni R1 model ailesini açık MIT lisansı altında tanıttı. En büyük versiyonu 671 milyar parametreye sahip olan bu model, matematik ve kodlama benchmark'larında OpenAI'nın o1 modeline benzer performans sergilediğini iddia ediyor.
DeepSeek, ana DeepSeek-R1 ve DeepSeek-R1-Zero modellerinin yanı sıra 1.5 milyar ile 70 milyar parametre arasında değişen altı "DeepSeek-R1-Distill" versiyonu da yayımladı. Bu modeller, mevcut açık kaynak mimarileri olan Qwen ve Llama gibi yapıların üzerine inşa edildi ve R1 modelinden elde edilen verilerle eğitildi. En küçük versiyonu bir dizüstü bilgisayarda çalıştırılabilirken tam model daha fazla hesaplama kaynağı gerektiriyor.
R1 modeli, tipik büyük dil modellerinden (LLM) farklı olarak insan benzeri düşünce zincirini simüle etmeye çalışıyor. Bu yeni model, matematik, fizik ve bilimle ilgili görevlerde performansı artıran bir yaklaşım sunuyor. DeepSeek, R1'in AIME, MATH-500 ve SWE-bench Verified gibi çeşitli testlerde OpenAI'nın o1 modelini geride bıraktığını bildirdi. Ancak R1'in bulut tabanlı versiyonunu çalıştıran kullanıcılar için bazı kısıtlamalar mevcut. Çin menşeli olduğu için Tiananmen Meydanı veya Tayvan'ın özerkliği gibi belirli konular hakkında yanıt üretmiyor. Bu filtreleme, modelin yerel olarak çalıştırılması durumunda geçerli olmuyor. DeepSeek'in yeni R1 modeli, yerel donanımda çalıştırılabilen etkili akıl yürütme yetenekleri sunarak yapay zeka alanında önemli bir gelişme sağlıyor.