Python nereden öğrenilir?

Moserr

Centipat
Katılım
11 Aralık 2024
Mesajlar
387
İleride J. A. R. V. İ. S gibi hayali bir yapay zeka yapmak için sıfırdan iyice ve kalıpları iyi öğreten bir kurs istiyorum ücretsiz. Elimde RTX 4060 sistemim var (ileride RTX 5060 Tİ 16 GB'a yükseltmek istiyorum LLM için) bir de ileride Python öğrenmek için laptop alacağım kodları bu laptopta yazacağım LLM ve diğer teknolojiler için ileride yükselteceğim RTX 4060 sistemimi kullanacağım ancak maalesef 8 GB VRAM LLM için yetersiz kalabilir o yüzden dediğim gibi RTX 5060 Tİ 16 GB alacağım.

Bu arada büyük çaplı bir proje değil ama diğerlerine nazaran kafa tutacak bir projeden bahsediyorum.
 
Bu işi yapanlar var ama en ufaklarının bile 4 tane kasası var 2x5090 takılı her birine. Bunlarla eğitiyorlar, genelde gözetleme sistemleri için yapıp satmaya çalışan çok. Sen hali hazırdaki yapay zekaları kullanıp üstüne kendi araştırmalarını, çektiğin verileri ekleyebilirsin. Sistemine en uygun olanı bu(RAG).

Qwen3-14B ve GPT-OSS-20B 16GB kartlarda gayet güzel çalışıyor. Cuda çekirdek sayısı yüksek ekran kartı alırsan daha hızlı sonuç alırsın. 14B ve 20B modeller Mid+ güçteler fazla fazla yeter. Olası taşma durumunda bilgisayarındaki ram miktarı da asgari 32gb olsun, 64 olursa iyi olur. Taşma olursa kağnı hızına düşer response 10x kadar yavaş çalışır(DDR5).

GPT-20B 14.7GB VRAM kilitler ama iyi iş çıkarır.
 
Bu işi yapanlar var ama en ufaklarının bile 4 tane kasası var 2x5090 takılı her birine. Bunlarla eğitiyorlar, genelde gözetleme sistemleri için yapıp satmaya çalışan çok. Sen hali hazırdaki yapay zekaları kullanıp üstüne kendi araştırmalarını çektiğin verileri ekleyebilirsin. Sistemine en uygun olanı bu.

Qwen3-14B ve GPT-OSS-20B 16GB kartlarda gayet güzel çalışıyor. Cuda çekirdek sayısı yüksek ekran kartı alırsan daha hızlı sonuç alırsın. 14B ve 20B modeller Mid+ güçteler fazla fazla yeter. Olası taşma durumunda bilgisayarındaki ram miktarı da asgari 32gb olsun, 64 olursa iyi olur, taşma olursa kağnı hızına düşer response 10x kadar yavaş çalışır.
Şuan güncel sistemde ram miktarı 16 GB,bir 16 GB daha alırım ama malesef 64 GB hayal gibi çünkü yeni ram fiyatları karaborsa gibi. Dediğiniz gibi hali hazırda bir LLM kullabilirim. Eğer sistemim el verseydi rtx 3090 takardım ama malesef 650 watt psu ile bunun hayali bile kurulmaz ayrıca PSU değiştirmek aşırı zahmetli bilmiyorum değiştirmesinide.
 
Şuan güncel sistemde ram miktarı 16 GB,bir 16 GB daha alırım ama malesef 64 GB hayal gibi çünkü yeni ram fiyatları karaborsa gibi. Dediğiniz gibi hali hazırda bir LLM kullabilirim. Eğer sistemim el verseydi rtx 3090 takardım ama malesef 650 watt psu ile bunun hayali bile kurulmaz ayrıca PSU değiştirmek aşırı zahmetli bilmiyorum değiştirmesinide.
16Gb 4060Ti ile deliler gibi sömürebilirsin. 2023 Eylül'den sonra bilgisi yok modellerin, bilgi araklamak için cloud'a bağlayabiliyorsun ama search api satın almak çok maliyetli. Yani sen evimde kurayım search api satın alıp internetten benim yerime araştırsın bulsun dersen adamlar orada çok sağlam bir ödeme duvarı çekmişler. Gariban işi gibi elle docx-pdf eklemek lazım, tırnaklarınla kazıyacaksın kısacası. FAISS ile vektörlere ayırıp database oluşturmak için çok kuvvetli CPU lazım CPU bölme işlemi sırasında çok bağırır ve uzun sürer. Windows kısmında böyle, ubuntu kurup GPU'ya yaptırıyorlar bu vektörlere bölme işlemini orada rahat edersin.
 
16Gb 4060Ti ile deliler gibi sömürebilirsin. 2023 Eylül'den sonra bilgisi yok modellerin, bilgi araklamak için cloud'a bağlayabiliyorsun ama search api satın almak çok maliyetli. Yani sen evimde kurayım search api satın alıp internetten benim yerime araştırsın bulsun dersen adamlar orada çok sağlam bir ödeme duvarı çekmişler. Gariban işi gibi elle docx-pdf eklemek lazım, tırnaklarınla kazıyacaksın kısacası. FAISS ile vektörlere ayırıp database oluşturmak için çok kuvvetli CPU lazım CPU bölme işlemi sırasında çok bağırır ve uzun sürer. Windows kısmında böyle, ubuntu kurup GPU'ya yaptırıyorlar bu vektörlere bölme işlemini orada rahat edersin.
Yani LLM in bilgi havuzunu manuel olarak değiştirmek bize kalıyor.
 
Peki hazır LLM alıp işlerken yaşayacağım zorluklar nelerdir? Hocam.

Soru sor-cevap al mantığında yürüyor bunlar genelde, dil modeli olduğu için sorularınla en alakalı olan veriyi çekip önüne sunar. Düşünme modunda ise saçmalamalar görme ihtimalin %50-50. Veritabanına ekleme yaparken ekleyeceğin bilgilerin de kapsamlı olması gerek yoksa 1-2satırlık bir şeyi yazar geçer. GPT bütün interneti-dünya kütüphanesini kullandığı için bu kadar muazzam, biz nereye o kadar kapsamlı veri tabanı oluşturabiliriz ki?
 

Bu konuyu görüntüleyen kullanıcılar

Technopat Haberler

Yeni konular

Geri
Yukarı