Araştırma

Araştırma

Hugging Face: Küçük Dil Modelleriyle Büyükleri Aşmak

Metni kopyala

Kopyalandı!

Metni kopyala

Kopyalandı!

Metni kopyala

Kopyalandı!

3 milyar parametreli model, 70 milyarlık devleri alt edebilir mi? Hugging Face'in ölçeklendirme teknikleriyle dil modellerinde devrimi keşfedin!

Efe Şener Fotoğrafı

Efe Şener

21 Aralık 2024 Cumartesi

21 Ara 2024

4 dakikalık okuma

To embed a website or widget, add it to the properties panel.
To embed a website or widget, add it to the properties panel.

4 dakikalık okuma

Küçük dil modelleri için yeterli güçte bir çip fotoprafı
Küçük dil modelleri için yeterli güçte bir çip fotoprafı
Küçük dil modelleri için yeterli güçte bir çip fotoprafı

Haber Özeti
Hugging Face, küçük dil modellerinin (SLM) performansını artırarak, daha büyük modelleri geride bırakma potansiyelini ortaya koyan dikkat çekici bir çalışma yayımladı. Yalnızca 3 milyar parametreye sahip bir model, karmaşık matematik problemlerinde 70 milyar parametreli bir modeli aşmayı başardı. Bu başarı, test zamanı ölçeklendirme ve arama algoritmaları gibi yenilikçi yöntemlere dayanıyor.

Araştırmada, "Ağırlıklı En İyilerden-Birisi" ve "Çeşitli Doğrulayıcı Ağaç Araması" gibi tekniklerle modellerin adım adım daha doğru sonuçlar ürettiği gösterildi. Bu yöntemler, küçük modellerin daha az kaynakla yüksek doğruluk sunmasını sağlıyor ve işletmelere özelleştirilmiş, maliyet etkin yapay zeka çözümleri geliştirme fırsatı sunuyor. Hugging Face’in bu yeniliği, dil modeli maliyet dinamiklerini değiştirerek sektör için yeni stratejik imkanlar sunuyor.

Hugging Face araştırmacıları, küçük dil modellerinin (SLM'ler) nasıl yapılandırılabileceğini ve bu modellerin, çok daha büyük dil modellerini nasıl geride bırakabileceğini gösteren dikkat çekici bir çalışma yayımladı. Araştırma, yalnızca 3 milyar parametreye sahip bir Llama 3 modelinin, karmaşık matematik problemlerinde 70 milyar parametreli versiyonunu geride bırakabileceğini ortaya koyuyor. Bu çalışma, işletmelere kendi özelleştirilmiş akıl yürütme modellerini oluşturma konusunda bir yol haritası sunarken, sürecin tamamı detaylı bir şekilde belgelenmiştir.

 

Hugging Face'in bu çalışması, OpenAI'nin "o1" modeli gibi, karmaşık matematik, kodlama ve akıl yürütme problemlerini çözmek için ekstra "düşünme" döngüleri kullanan yaklaşımlardan ilham almış. o1 modeli, "test zamanı hesaplama"yı ölçeklendirme fikrine dayanır. Bu yaklaşım, nihai cevabı üretmeden önce farklı yanıtları ve akıl yürütme yollarını test etmek ve doğrulamak için çıkarım sırasında daha fazla hesaplama döngüsü kullanmayı içerir. Özellikle büyük bir modeli çalıştırmak için yeterli bellek olmadığında bu yöntem oldukça faydalıdır. Ancak o1 modeli özel bir modeldir ve OpenAI, bu modelin iç işleyişi hakkında fazla bilgi paylaşmamaktadır. Bu nedenle, Hugging Face araştırmacıları, o1'in çalışma prensiplerini anlamak için tersine mühendislik yöntemlerine başvurmuştur.

 

Hugging Face'in çalışması, ağustos ayında yayımlanan bir DeepMind araştırmasından esinlenmiştir. DeepMind çalışması, çıkarım zamanı ve ön eğitim hesaplaması arasındaki dengeyi inceleyerek, sabit bir bütçe dahilinde en iyi sonuçları elde etmek için bu iki faktörün nasıl optimize edilebileceğine dair rehberlik sunmaktadır. Hugging Face'in yaklaşımı, ekstra çıkarım zamanı hesaplaması kullanmanın yanı sıra iki ana bileşene dayanır: SLM'nin yanıtlarını değerlendiren bir ödül modeli ve yanıtlarını geliştirmek için izlediği yolu optimize eden bir arama algoritması.

Test Zamanı Ölçeklendirme Yöntemleri

Test zamanı ölçeklendirmesinin en temel yöntemi "çoğunluk oylaması"dır. Bu yöntemde, aynı istem modele birden fazla kez gönderilir ve en yüksek oyu alan yanıt seçilir. Basit problemler için bu yöntem etkili olabilir, ancak karmaşık akıl yürütme gerektiren problemler veya nesiller arasında hataların tutarlı olduğu durumlarda bu yöntemin faydası sınırlı kalır. Daha gelişmiş bir yöntem olan "En İyilerden-Birisi" tekniği, SLM'nin birden fazla yanıt üretmesini sağlar ve bu yanıtlar bir ödül modeli tarafından değerlendirilerek en iyi olanı seçilir. Bunun daha sofistike bir versiyonu olan "Ağırlıklı En İyilerden-Birisi" yöntemi ise, yanıtların tutarlılığını dikkate alarak hem güvenilir hem de daha sık meydana gelen yanıtları seçer.

 

Araştırmacılar, SLM'nin yanıtlarını yalnızca nihai cevap üzerinden değil, aynı zamanda bu cevaba ulaşmak için izlediği adımlar üzerinden değerlendiren bir "işlem ödül modeli" (PRM) geliştirmiştir. Deneyler, Ağırlıklı En İyilerden-Birisi ve PRM'nin, Llama-3.2 1B modelini zorlu MATH-500 benchmark'ında 8B seviyesine yaklaştırdığını göstermiştir.

Akıl Yürütme Sürecinde Arama Algoritmaları

Modelin performansını daha da artırmak için araştırmacılar, akıl yürütme sürecine arama algoritmaları eklemiştir. Örneğin, "ışın araması" adlı bir algoritma kullanılarak modelin cevabı tek bir geçişte üretmesi yerine, adım adım yönlendirilmesi sağlanmıştır. Bu süreçte, model her adımda birden fazla kısmi yanıt üretir ve arama algoritması, en umut verici yanıtları seçmek için ödül modelini kullanır. Bu işlem, model çıkarım bütçesi tükenene veya doğru cevaba ulaşılana kadar tekrarlanır. Böylece, çıkarım bütçesi en olası doğru yanıtlar üzerinde yoğunlaşacak şekilde optimize edilir.

 

Ancak, ışın araması basit problemler üzerinde diğer tekniklere göre daha düşük performans gösterebilir. Bu sorunu çözmek için araştırmacılar, "Çeşitli Doğrulayıcı Ağaç Araması" (DVTS) adlı bir ışın araması varyantı geliştirmiştir. Bu yöntem, modelin yanlış akıl yürütme yollarında sıkışmasını önler ve yanıt dallarını çeşitlendirir. Ayrıca, giriş probleminin zorluğuna bağlı olarak en uygun test zamanı ölçeklendirme stratejisini dinamik olarak seçen bir "hesaplama-optimal ölçeklendirme stratejisi" de geliştirilmiştir.

 

Bu yenilikçi teknikler, Llama-3.2 1B'nin performansını artırarak 8B modelini geride bırakmasını sağlamış ve hatta Llama-3.2 3B'nin, çok daha büyük bir model olan 70B'yi aşmasını mümkün kılmıştır.

Test Zamanı Ölçeklendirme ve İşletmeler İçin Fırsatlar

Test zamanı hesaplamasının ölçeklendirilmesi, model maliyetlerinin dinamiklerini değiştirme potansiyeline sahiptir. Bu yöntem sayesinde işletmeler, hesaplama kaynaklarını nerede ve nasıl tahsis edeceklerini daha esnek bir şekilde belirleyebilir. Örneğin, bellek sınırlamaları olan bir durumda, daha küçük bir model kullanarak daha fazla çıkarım döngüsü harcayabilir ve daha doğru yanıtlar elde edebilirsiniz. Ancak, bu yöntemin de sınırlamaları vardır. Hugging Face'in deneylerinde, PRM olarak özel olarak eğitilmiş bir Llama-3.1-8B modeli kullanılmıştır; bu, iki modeli paralel çalıştırmayı gerektirir. Yine de bu yaklaşım, 70B gibi büyük modellerden çok daha kaynak verimlidir.

 

Araştırmacılar, test zamanı ölçeklendirmesinin nihai hedefinin "kendinden doğrulama" olduğunu belirtmektedir. Bu, modelin kendi yanıtlarını doğrulaması anlamına gelir ve dış bir doğrulayıcıya olan ihtiyacı ortadan kaldırır. Ancak, bu hedefe ulaşmak hâlâ araştırma gerektiren bir alandır.

 

Bu teknik, özellikle yanıtların açıkça değerlendirilebildiği kodlama ve matematik gibi görevlerde etkili olsa da yaratıcı yazım veya ürün tasarımı gibi daha öznel görevlerde uygulanabilirliği sınırlıdır. Bu alanlarda ödül modelleri ve doğrulayıcılar geliştirmek için daha fazla araştırma yapılması gerekmektedir.

 

Sonuç olarak, test zamanı ölçeklendirme, dil modellerinin performansını artırmak için büyük bir potansiyel sunmaktadır. Önümüzdeki aylarda bu alanda daha fazla yenilik ve araç beklenmektedir. İşletmelerin, bu gelişmeleri yakından takip ederek stratejilerini buna göre şekillendirmesi önemlidir.


Kaynak: Venturebeat

Share this article

Bu haberi paylaş

Bu haberi paylaş

İlgili Makaleler

İlgili Makaleler

İlgili Makaleler

AI Haberleri'ne abone olun

Yapay zekadaki en son gelişmelerden haberdar olun. İster yapay zeka ister teknoloji olsun, hepsini anında, doğrudan gelen kutunuza ulaştıracağız.

Spam göndermiyoruz, söz veriyoruz. Ayda sadece iki e-posta, tek bir tıklamayla istediğiniz zaman aboneliğinizi iptal edebilirsiniz.

Copyright

© 2025

Tüm hakları saklıdır.

AI Haberleri'ne abone olun

Yapay zekadaki en son gelişmelerden haberdar olun. İster yapay zeka ister teknoloji olsun, hepsini anında, doğrudan gelen kutunuza ulaştıracağız.

Spam göndermiyoruz, söz veriyoruz. Ayda sadece iki e-posta, tek bir tıklamayla istediğiniz zaman aboneliğinizi iptal edebilirsiniz.

Copyright

© 2025

Tüm hakları saklıdır.

AI Haberleri'ne abone olun

Yapay zekadaki en son gelişmelerden haberdar olun. İster yapay zeka ister teknoloji olsun, hepsini anında, doğrudan gelen kutunuza ulaştıracağız.

Spam göndermiyoruz, söz veriyoruz. Ayda sadece iki e-posta, tek bir tıklamayla istediğiniz zaman aboneliğinizi iptal edebilirsiniz.

Copyright

© 2025

Tüm hakları saklıdır.