13.2 C
İstanbul

Google açık kaynaklı Gemma yapay zeka model ailesini güncelleyip genişletiyor

Google, Gemma model ailesini kod tamamlama ve daha verimli çıkarım için yeni varyantlarla genişletti. Buna ek olarak, standart Gemma modelleri daha esnek kullanım koşullarıyla 1.1 sürümüne güncellendi.

Mutlaka Okumalısın

Google, Gemma ailesine kod tamamlama ve daha verimli çıkarım için yeni modeller ekledi. Kullanım koşulları daha esnek hale getirildi.

Google bugün Gemma yapay zeka modelleri ailesini genişlettiğini duyurdu. Gemma ilk olarak Şubat ayında piyasaya sürüldü ve Google’ın daha büyük Gemini modelleriyle aynı teknolojiyi kullanan hafif modeller içeriyor. Bu, Google’ın açık kaynak pazarındaki ilk adımı.

Kod için Gemma

Programcıların kod yazmasına yardımcı olan bir model olan CodeGemma’nın üç yeni sürümü var:

  • Kodu tamamlamak ve yeni kod üretmek için önceden eğitilmiş 7 milyar parametreli bir model.
  • Kod hakkında sohbet etmek ve talimatları takip etmek için optimize edilmiş 7 milyar parametreli bir model.
  • Yerel cihazlarda hızlı kod tamamlama için önceden eğitilmiş 2 milyar parametreli bir model.
Code Gemma, kıyaslamalarda en yüksek puanları elde etmese de, geride kalmadan oldukça performanslı.

CodeGemma, web belgeleri, matematik ve koddan elde edilen 500 milyar veri üzerinde eğitilmiştir. Python, JavaScript, Java ve diğer popüler programlama dillerinde doğru ve anlamlı kod yazabilir. Google, CodeGemma’nın geliştiricilerin daha az tekrarlayan kod yazmalarını ve daha zor görevlere odaklanmalarını sağlamayı amaçladığını söylüyor.

Daha verimli çıkarım için Gemma

Google ayrıca hafızayı daha verimli kullanmak için tekrarlayan sinir ağları ve yerel dikkat kullanan ayrı bir model olan RecurrentGemma’yı da piyasaya sürdü. Bu model 2 milyar parametreli Gemma modeline benzer bir performans sergiliyor ancak bazı avantajları var:

  • Tek GPU veya CPU gibi sınırlı belleğe sahip cihazlarda daha uzun metin üretimi için daha az bellek kullanır.
  • Daha büyük yığın boyutları kullanarak ve saniyede daha fazla kelime üreterek metni daha hızlı işleyebilir.
  • Dönüştürücü olmayan modellerin hala nasıl iyi performans gösterebileceğini göstererek yapay zeka araştırmalarını ilerletir.
İLGİLİ YAZI :   Harvard'lı bilim insanları kuantum hesaplamada çığır açtıklarını iddia ediyor
RecurrentGemma, daha uzun metinlerde yavaşlamadan önceki adımlardan gelen bilgileri verimli bir şekilde depolar ve işler. Buna karşılık, Gemma gibi dönüştürücü modeller metnin tüm parçaları arasındaki etkileşimleri hesaplamak zorundadır, bu da daha fazla hesaplama gerektirir ve metin uzadıkça yavaşlar.

Google ayrıca orijinal Gemma modellerini performans iyileştirmeleri, hata düzeltmeleri ve daha esnek kullanım koşullarıyla 1.1 sürümüne güncelledi.

Yeni modeller artık Kaggle, Nvidia NIM API’leri, Hugging Face ve Vertex AI Model Garden’da mevcut. JAX, PyTorch, Hugging Face Transformers, Gemma.cpp, Keras, NVIDIA NeMo, TensorRT-LLM, Optimum-NVIDIA ve MediaPipe gibi araçlarla çalışıyorlar.


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, X (Twitter), Bluesky, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler