Veri analizi için yapay zeka önerisi

Ah be bende GTX1050 Gaming X var

 

Hocam öncelikle yanıtınız ve yardımseverliğiniz için teşekkür ederim. Bilgisayarım da RTX 3050 mobil bulunuyor, işlemci olarak da i5 12500H var. Tahminimce çok iyi sonuçlar vermez ama yine de idare eder sonuçlar verebilir (VRAM 4 GB olduğu için sorun yaşama ihtimalim var). Ayrıca farklı konular için eğitebilme ihtimalim olursa daha iyi olur çünkü bildiğim kadarıyla özelleştirme durumlarında veri setine bağlı olarak doğruluk çok daha fazla oluyor. Fakat bir sorun var hocam, ben sadece giriş seviyesi Python biliyorum o da unutmaya yüz tuttu gibi bir şey. Yazılım bilgisi olmadan veri setleri hazırlayıp ya da bulup modeli eğitebilir miyim?
 
ChatRTX'in 4GB VRAM ile çalışacağını çok sanmıyorum. Açılsa bile en azından Mistral modeli performans sorunu yaşatır. Bu konuda önceki bahsettiğimi genişleterek şu öneriyi getirebilirim: Modellerin dosya boyutu yaklaşık olarak VRAM'in yarısı kadar veya daha düşükse LM Studio'da "Full GPU Offload" diye geçen, modelin tamamının VRAM'e kopyalandığı ve işlemci RAM'den bağımsız olarak çalıştığı olay gerçekleşiyor. Aksi durumlarda ise "Partial GPU Offload" diye geçen, çıktı üretilirken modelin parça parça yüklendiği ve performans olarak diğerine göre daha zayıf kalan bir şey söz konusu.

Model boyutu arttıkça doğruluk oranı ve dosya boyutu da artar, cihazda çalışırken performans azalır. Modelin boyutu düştükçe tam tersi bir durum olur. Şahsen önerim eğer offline sistem ile devam edecekseniz ve doğruluk daha önemliyse, performansı gözden çıkarın. Partial GPU Offload kullanarak ve biraz bekleme süresine katlanarak istediğiz doğruluk oranına daha yakın çıktılar alın.

Ben çoğunlukla hazır modellerle ilgilendiğim için eğitme ve fine tune ile özelleştirme hakkında derin bilgim yok ama bu konuda da şunları önerebilirim: HuggingFace'in AutoTrain diye bir özelliği var. Tamamen online çalışıyor. İşe yarar gibi görünüyor ama yine de etkili bir sonuç almak istiyorsanız biraz bu konulara aşina olmanız lazım. Eğer Linux deneyiminiz varsa bu yazılıma da bir göz atabilirsiniz: H2O LLM Studio. Daha kolay bir alternatif istiyorsanız Google AI Studio var. Çok temel ve anlaşılır, kullanım açısından kolaydır ama ilk mesajınızda dediğiniz gibi bir kısıtlama olabilir. Diğer iki yazılımda model kontrolü tamamen sizde olur, istediğiniz yerde istediğiniz modeli eğitip istediğiniz şekilde çalıştırabilirsiniz ama Google AI Studio'da o esneklik olmaz.

Bütüncül bakarsam şunu önerebilirim: Eğer uzun vadede ciddi kullanım gerektirecek bir şeye ihtiyacınız varsa bu yolları tercih edin. Yoksa şimdilik hazır bir modelle RAG ile dosyadan veri çekerek yapmanız daha iyi olur diye düşünüyorum.
 
Son düzenleme:
Gündelik konularda hız önemli olsa da bazı spesifik alanlar için güvenilir olması çok daha önemli benim için hocam. Müsait bir zamanda kendi modellerimi oluşturmaya çalışayım. Verdiğiniz bilgiler çok faydalı gerçekten.
 

Arkadaşım lokal yapay zeka modelleri indirmeyi bana öğretmişti. GTX1660 Ti laptopumda çalışmıştı gayet. Bence bu yapay zekalara para vermek çok saçma.
 
Arkadaşım lokal yapay zeka modelleri indirmeyi bana öğretmişti. GTX1660 Ti laptopumda çalışmıştı gayet. Bence bu yapay zekalara para vermek çok saçma.

Hangi modeli kullanmıştınız hocam?
 
Son düzenleme:
Ollama sadece Meta'nın modellerini değil, diğer modelleri de çalıştırabiliyor. Modelleri çalıştırmak için kullandığı kütüphane olan llama.cpp'den dolayı adı öyle. Phi, Gemma gibi diğer yapıları da destekliyor. Uygulamanın kendisi aslında sunucu yazılımı, maalesef son kullanıcıya doğrudan hitap etmiyor. İçinde terminal bazlı bir arayüz var ama günlük kullanıma uygun değil. Uğraşarak açık kaynak arayüz de kurabilirsiniz ama bildiğim kadarıyla sadece Linux'ta destekliyor. Bu yazılımı kullanmak için ekstradan istemci kurmanız lazım. Benim en çok hoşuma giden ChatBox var. Onun dışında Maid de güzel ama bazı bugları aşırı sinir bozucu olabiliyor. Bunların dışında MacOS için birkaç tane uygulama var. Ben de bir süredir Windows için entegre (Dosyalar, Ayarlar vb.) istemci geliştirmeyi deniyorum, kullanılabilir bir seviyeye geldiğinde onu da paylaşabilirim. Performans açısından yazılımın kendisi hafif, Raspberry Pi gibi cihazlarda bile rahat çalışıyor. Ben de birkaç aydır uygun bir modelle Raspberry Pi 4 üzerinde aktif olarak akıllı ev sistemine entegre kullanıyorum. Şu anlık işini iyi yapıyor diyebilirim.

Llama'nın modlanmış sürümleriydi sanırsam.
TinyLLama olabilir mi?
 

Hocam tekrardan merhaba. Bilgisayarıma Llama 3.1 8B kurdum fakat cevapları hiç tatmin edici değil. Dediklerimi anlamıyor, anlasa bile yapamıyor. Sanki 40 IQ birisinden bir şey istiyor gibi hissediyorum. Modelin genel sorunu mu yoksa performans vs. gibi şeyler yüzünden de böyle çalışıyor olabilir mi?
 
Bu siteyi kullanmak için çerezler gereklidir. Siteyi kullanmaya devam etmek için çerezleri kabul etmelisiniz. Daha Fazlasını Öğren.…