1 trilyon parametreli açık kaynak dil modeli duyuruldu

somucherror

Hectopat
Katılım
23 Nisan 2021
Mesajlar
68
Çözümler
3
Beijing academy of artificial ıntelligence tarafından yayılanan model testlerde hâlâ ChatGPT'nin gerisinde kalıyor.

Bu içeriği görüntülemek için üçüncü taraf çerezlerini yerleştirmek için izninize ihtiyacımız olacak.
Daha detaylı bilgi için, çerezler sayfamıza bakınız.


CofeAI/Tele-FLM-1T · Hugging Face
 
Son düzenleyen: Moderatör:
Beijing academy of artificial ıntelligence tarafından yayılanan model testlerde hâlâ ChatGPT'nin gerisinde kalıyor.

Bu içeriği görüntülemek için üçüncü taraf çerezlerini yerleştirmek için izninize ihtiyacımız olacak.
Daha detaylı bilgi için, çerezler sayfamıza bakınız.


CofeAI/Tele-FLM-1T · Hugging Face

Parametre sayisinin fazlaligi hicbir sey ifade etmiyor ki. Cok daha az parametreye egitilen modellere daha fazla parametreyle egitilen modellerden daha iyi sonuclar verebiliyor. Tabii ki bu modele yaptiginiz ince ayarlara ve kullandiginiz alana gore degisir.
 
Son düzenleme:

Technopat Haberler

Yeni konular

Geri
Yukarı