Google, Gemma ailesine kod tamamlama ve daha verimli çıkarım için yeni modeller ekledi. Kullanım koşulları daha esnek hale getirildi.
Google bugün Gemma yapay zeka modelleri ailesini genişlettiğini duyurdu. Gemma ilk olarak Şubat ayında piyasaya sürüldü ve Google’ın daha büyük Gemini modelleriyle aynı teknolojiyi kullanan hafif modeller içeriyor. Bu, Google’ın açık kaynak pazarındaki ilk adımı.
Kod için Gemma
Programcıların kod yazmasına yardımcı olan bir model olan CodeGemma’nın üç yeni sürümü var:
- Kodu tamamlamak ve yeni kod üretmek için önceden eğitilmiş 7 milyar parametreli bir model.
- Kod hakkında sohbet etmek ve talimatları takip etmek için optimize edilmiş 7 milyar parametreli bir model.
- Yerel cihazlarda hızlı kod tamamlama için önceden eğitilmiş 2 milyar parametreli bir model.
CodeGemma, web belgeleri, matematik ve koddan elde edilen 500 milyar veri üzerinde eğitilmiştir. Python, JavaScript, Java ve diğer popüler programlama dillerinde doğru ve anlamlı kod yazabilir. Google, CodeGemma’nın geliştiricilerin daha az tekrarlayan kod yazmalarını ve daha zor görevlere odaklanmalarını sağlamayı amaçladığını söylüyor.
Daha verimli çıkarım için Gemma
Google ayrıca hafızayı daha verimli kullanmak için tekrarlayan sinir ağları ve yerel dikkat kullanan ayrı bir model olan RecurrentGemma’yı da piyasaya sürdü. Bu model 2 milyar parametreli Gemma modeline benzer bir performans sergiliyor ancak bazı avantajları var:
- Tek GPU veya CPU gibi sınırlı belleğe sahip cihazlarda daha uzun metin üretimi için daha az bellek kullanır.
- Daha büyük yığın boyutları kullanarak ve saniyede daha fazla kelime üreterek metni daha hızlı işleyebilir.
- Dönüştürücü olmayan modellerin hala nasıl iyi performans gösterebileceğini göstererek yapay zeka araştırmalarını ilerletir.
Google ayrıca orijinal Gemma modellerini performans iyileştirmeleri, hata düzeltmeleri ve daha esnek kullanım koşullarıyla 1.1 sürümüne güncelledi.
Yeni modeller artık Kaggle, Nvidia NIM API’leri, Hugging Face ve Vertex AI Model Garden’da mevcut. JAX, PyTorch, Hugging Face Transformers, Gemma.cpp, Keras, NVIDIA NeMo, TensorRT-LLM, Optimum-NVIDIA ve MediaPipe gibi araçlarla çalışıyorlar.
Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, X (Twitter), Bluesky, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.