Meta, Yapay Zeka Dil Modelleriyle Küçülmek İstiyor

Abone Ol

Büyük dil AI modelleri manşetlere çıkmaya devam ederken, aksiyonun olduğu yer küçük dil modelleridir. En azından, araştırma bilim insanlarından oluşan bir ekip tarafından yakın zamanda yayınlanan bir makaleye göre Meta'nın bahse girdiği şey bu gibi görünüyor.

ChatGPT, Gemini ve Llama gibi büyük dil modelleri, sonuçlarını elde etmek için milyarlarca, hatta trilyonlarca parametre kullanabilir. Bu modellerin boyutu, mobil cihazlarda çalıştırılamayacak kadar büyük olmalarına neden olur. Bu nedenle, Meta bilim insanları araştırmalarında, mobil cihazlarda verimli büyük dil modellerine yönelik artan bir ihtiyaç olduğunu belirttiler; bu ihtiyaç, artan bulut maliyetleri ve gecikme endişeleriyle yönlendiriliyor.

Bilim insanları araştırmalarında, bir milyardan az parametreyle yüksek kaliteli büyük dil modelleri nasıl oluşturduklarını ve bunun mobil dağıtım için iyi bir boyut olduğunu nasıl savunduklarını açıkladılar.

Model kalitesini belirlemede veri ve parametre miktarının oynadığı önemli role vurgu yapan yaygın inancın aksine, bilim insanları küçük dil modeliyle bazı alanlarda Meta'nın Llama LLM programına benzer sonuçlar elde ettiler.

New York City merkezli, yapay zeka destekli bir e-ticaret tedarik zinciri platformu olan Bucephalus'un CEO'su Nick DeGiacomo, "Daha büyük olanın daha iyi olduğu yönünde yaygın bir paradigma var, ancak bu, asıl meselenin parametrelerin nasıl kullanıldığıyla ilgili olduğunu gösteriyor" dedi .

TechNewsWorld'e yaptığı açıklamada, "Bu, cihaz içi yapay zekanın daha yaygın bir şekilde benimsenmesinin önünü açıyor" dedi.