G
Gözde Ulukan
Misafir
Yapay zeka sanat aracı Stable Diffusion'ın arkasındaki şirket Stability AI, açık kaynaklı büyük dil modellerinden oluşan bir paket olan StableLM'in piyasaya sürüldüğünü duyurdu. Stability AI, GitHub ve Hugging Face'de "alpha" olarak mevcut olan modellerin hem kod hem de metin üretebileceğini, aynı zamanda küçük ve verimli modellerin uygun eğitimle ne kadar yüksek performans sağlayabileceğini gösterdiğini söylüyor.
StableLM paketinin halka açık sürümleri şu anda 3 milyar ve 7 milyar parametre içeren modellerden, "devam ediyor" olarak belirtilen 15 milyar, 30 milyar ve 65 milyar parametreli modellerden oluşuyor. Şirketin blog gönderisinde paylaşılanlara göre StableLM'nin piyasaya sürülmesi, Stability AI'ın, kar amacı gütmeyen bir araştırma merkezi olan EleutherAI ile açık kaynaklı eski dil modellerindeki deneyimine dayanıyor. Bu dil modelleri, The Pile açık kaynak veri kümesi üzerinde eğitilmiş GPT-J, GPT-NeoX ve Pythia paketini içeriyor. Cerebras-GPT ve Dolly-2 dahil olmak üzere birçok yeni açık kaynak dil modeli bu çabaları temel almaya devam ediyor.
Modeller, The Pile'da eğitilmiş olsa da Stability AI, standart Pile boyutunu 3 kat artıran özel bir eğitim seti oluşturduğunu iddia ediyor. Şirket, dil modellerinin kendi ekonomilerinin bel kemiğini oluşturacağını; bu nedenle tasarımlarda herkesin söz sahibi olmasını istediğini belirtiyor. Şirkete göre StableLM gibi modeller, şeffaf, erişilebilir ve destekleyici yapay zeka teknolojisine olan bağlılığı gösteriyor.
Stability AI, blog gönderisinde StableLM modellerinin diğerleriyle aynı sınırlamalara sahip olup olmadığına dair bir bilgi paylaşmadı. Şu anda StableLM modellerinin tam olarak ne kadar sağlam olduğu ise belli değil. Stability AI ekibi, GitHub sayfasında, model özellikleri ve eğitim ayarları da dahil olmak üzere LLM'lerin yetenekleri hakkında daha fazla bilginin yakında paylaşılacağını belirtti.
Kısacası modellerin testte yeterince iyi performans göstermesi koşuluyla, OpenAI'ın ChatGPT'sine güçlü, açık kaynaklı bir alternatifin gelmesi olası diyebiliriz.
Kaynak : Webrazzi
StableLM paketinin halka açık sürümleri şu anda 3 milyar ve 7 milyar parametre içeren modellerden, "devam ediyor" olarak belirtilen 15 milyar, 30 milyar ve 65 milyar parametreli modellerden oluşuyor. Şirketin blog gönderisinde paylaşılanlara göre StableLM'nin piyasaya sürülmesi, Stability AI'ın, kar amacı gütmeyen bir araştırma merkezi olan EleutherAI ile açık kaynaklı eski dil modellerindeki deneyimine dayanıyor. Bu dil modelleri, The Pile açık kaynak veri kümesi üzerinde eğitilmiş GPT-J, GPT-NeoX ve Pythia paketini içeriyor. Cerebras-GPT ve Dolly-2 dahil olmak üzere birçok yeni açık kaynak dil modeli bu çabaları temel almaya devam ediyor.
Modeller, The Pile'da eğitilmiş olsa da Stability AI, standart Pile boyutunu 3 kat artıran özel bir eğitim seti oluşturduğunu iddia ediyor. Şirket, dil modellerinin kendi ekonomilerinin bel kemiğini oluşturacağını; bu nedenle tasarımlarda herkesin söz sahibi olmasını istediğini belirtiyor. Şirkete göre StableLM gibi modeller, şeffaf, erişilebilir ve destekleyici yapay zeka teknolojisine olan bağlılığı gösteriyor.
Stability AI, blog gönderisinde StableLM modellerinin diğerleriyle aynı sınırlamalara sahip olup olmadığına dair bir bilgi paylaşmadı. Şu anda StableLM modellerinin tam olarak ne kadar sağlam olduğu ise belli değil. Stability AI ekibi, GitHub sayfasında, model özellikleri ve eğitim ayarları da dahil olmak üzere LLM'lerin yetenekleri hakkında daha fazla bilginin yakında paylaşılacağını belirtti.
Kısacası modellerin testte yeterince iyi performans göstermesi koşuluyla, OpenAI'ın ChatGPT'sine güçlü, açık kaynaklı bir alternatifin gelmesi olası diyebiliriz.
Kaynak : Webrazzi