Yapay zeka geliştirme ve diğer bazı yüksek güç ve sistem gerektiren geliştirmeler için nasıl sistemler kullanılıyor? Ne tarz işlemciler ve ekran kartları kullanılıyor? Bildiğimiz NVIDIA, Intel falan mı yoksa daha farklı şeyler mi kullanıyorlar?
Ufak çaplı yapay zekalardan bahsetmiyorsanız kuantum bilgisayarlar kullanılıyor.
Özelleştirilmiş bilgisayarlar yani üstteki videoda olduğu gibi değil mi?Yapay zeka sistemleri için kuantum bilgisayarların kullanıldığı doğru değil. Günümüzde kullandığımız binary (ikili) bilgisayarlar kullanılıyor ama elbette evde topladığımız ya da hazır satılan PC'ler gibi bilgisayarlar değil. Yüksek oranda işlem gücü gerekiyor bazı yapay zeka modellerinin eğitilmesi ve başka süreçler için. Tıpkı Bitcoin madenciliğinde olduğu gibi bu işlerde de GPU'lar, CPU'lardan daha önde. Bu nedenle NVIDIA'nın yapay zeka siparişleri nedeniyle parayı kamyonla götürmesine şaşırmamalı.
Kısacası yapay zeka işleri için yüksek GPU kapasitelerine sahip endüstriyel ve büyük sistemler kullanılıyorlar.
Özel sistemler. Yukarıdaki video güzel bir örnek ama her sistem aynı şekilde görünmeyebilir ya da aynı boyutta olmayabilir.Özelleştirilmiş bilgisayarlar yani üstteki videoda olduğu gibi değil mi?
Güçlü sistem kullanan sıradan bilgisayarlar ile ne boyutta bir yapay zeka sistemi geliştirilebilir?Özel sistemler. Yukarıdaki video güzel bir örnek ama her sistem aynı şekilde görünmeyebilir ya da aynı boyutta olmayabilir.
Sıradan PC'ler ile ChatGPT gibi bir dil modeli eğitemezsin. GPT-3.5 şu anda 175 milyar parametre kullanıyor. Örnek olması açısından 2018 yılındaki ilk sürümü, yani 117 milyon parametreli GPT-1'i 8 güçlü GPU'lu ve 1.7e19 FLOP gücünde bir sistemle 1 ay boyunca eğitmişlerdi. GPT-4'ün ne kadar parametreye sahip olduğu bilinmiyor ama GPT-3.5'dan fazla olduğu kesin ve söylenenlere göre OpenAI bu sistemi eğitmek için 100 milyon dolar para harcamış.Güçlü sistem kullanan sıradan bilgisayarlar ile ne boyutta bir yapay zeka sistemi geliştirilebilir?
Sıradan PC'ler ile ChatGPT gibi bir dil modeli eğitemezsin. GPT-3.5 şu anda 175 milyar parametre kullanıyor. Örnek olması açısından 2018 yılındaki ilk sürümü, yani 117 milyon parametreli GPT-1'i 8 güçlü GPU'lu ve 1.7E19 flop gücünde bir sistemle 1 ay boyunca eğitmişlerdi. GPT-4'ün ne kadar parametreye sahip olduğu bilinmiyor ama GPT-3.5'dan fazla olduğu kesin ve söylenenlere göre OpenAI bu sistemi eğitmek için 100 milyon dolar para harcamış.
Aşağıdaki tabloyu inceleyebilirsin. Son bölüm, yani “training cost” kısmında ne kadarlık bir işlem hacmi gerektiğine dair bilgiler var:
Eki Görüntüle 1919769
Bu sitenin çalışmasını sağlamak için gerekli çerezleri ve deneyiminizi iyileştirmek için isteğe bağlı çerezleri kullanıyoruz.