Ekran Kartı İle Ev Bilgisayarının Hızı Süper Bilgisayarı Geçti

bambamm6

Kilopat
Katılım
3 Mayıs 2016
Mesajlar
547
Yer
İstanbul
Evimizde kullandığımız bilgisayarların ekran kartlarındaki grafik işlemciler (GPU) o kadar hızlı çalışır ki, bilgisayarımızda gerçekçi oyunlar oynamamızı sağlar. Rusya’dan fizikçiler Nvidia’nın grafik işlemcisini yerleştirdikleri bir ev bilgisayarını, güçlü bir süper bilgisayara karşı karşı kullanarak, normalde iki-üç gün süren hesaplamaları sadece 15 dakikada yaptırdılar.

GPU’lar çoklu işlemleri aynı anda yapacak veri yolu mimarisine sahip olduğundan, normal CPU’lardan yani bilgisayar işlemcilerinden çok daha fazla hesaplamayı aynı anda yapabiliyor. Lomonosov Moscow State Üniversitesi’nden araştırmacılar bunu avantaja çevirmek istediler, piyasada satılan bilgisayarlardan alarak, süper bilgisayarlara alternatif olup olamayacağını test ettiler.

Çoklu kuantum parçacıklarının birbiriyle etkileşiminde gerçekleşen birkaç saçılma denklemini grafik işlemciye tanımladılar. Bu tanecikler üçten fazla olursa denklemlerin hesaplanması oldukça zorlaşıyor. Hesaplamalarda yüzlerce sütun veriye dökülüyor. İşte Nvidia yazılımı ve özel yazılım yazan araştırmacılar GPU’nun tahmin edilenden çok daha iyi çalıştığını gördü.

“Hayal bile edemeyeceğimiz bir hıza ulaştık. Program normal masaüstü bilgisayarda 260 milyon kompleks duble integrali sadece 3 saniyede hesapladı. Bu süper bilgisayarlarla kıyaslanamaz bile. Almanya Bochum Üniversitesi’nden bir meslektaşı blue gene mimarisine sahip en büyük süperbilgisayarlardan birinde hesaplama yaptırdı. Onların 2-3 günde yaptığı hesaplamayı biz 15 dakikada yaptık.”

Ekibin amacı bu erişilebilir teknolojiyi daha geniş alanlara yaymaktır. Genelde sadece süper bilgisayarlarda yapılan görevler zaman harcayan hesaplamalardı. Bu nedenle dünyada sadece birkaç grup bu kaynaklarla çalışarak kuantum mekaniği, nükleer ve atom fiziğinde gelişmelere imza atıyor.

Ekibin kullandığı işlemciler 300 ila 500 dolar arasında değişiyor, oysa süper bilgisayarlara yüzlerce milyon dolar harcanıyor. Aslında GPU’lar 10 yıldan beri böyle işlemler yapabiliyor, fakat değerleri daha yeni anlaşılmaya başladı. Bu sayede nükleer ve rezonans reaksiyonları kimyasında, fizikte, elektrodinamikte, jeofizikte, tıpta ve bilimin diğer alanlarında büyük hesaplamaların yapımı kolaylaşabilir.

Bu sayede süper bilgisayarlara sahip olmayan üniversitelerden simülatif hesaplamalar kolaylaştırılabilir. NVIDIA bu konuda araştırmalara destek sağlıyor. Ayrıca NVIDIA, 2012 Ocak Ridge’deki dünyanın en güçlü süper bilgisayarlarından biri olan Titan Süper bilgisayarı bu sayede güçlendirmişti.

Kaynak: Gerçek Bilim. http://www.gercekbilim.com/ev-bilgisayarinin-grafik-islemcisinin-hizi-super-bilgisayari-gecti/
 
Son düzenleme:
Yani GPU'lar CPU'ların yapacağı işlemi çok daha hızlı mı yapıyor? O zaman 10 sene sonra işlemcisiz bilgisayarlar gelebilir mi? Benim kafam karıştı. [emoji4]
 
Yani GPU'lar CPU'ların yapacağı işlemi çok daha hızlı mı yapıyor? O zaman 10 sene sonra işlemcisiz bilgisayarlar gelebilir mi? Benim kafam karıştı. [emoji4]
Bilim adamları burada ekran kartının gücünden yararlanmış kendi amaçları için. Dediğiniz şey pek mantıklı gelmiyor tabi, sonuçta ikisi de farklı amacı, görevi olan parçalar ama 10 sene neler neler çıkar tahmin bile edemeyiz şu an. :) Mesela onboard ekran kartı olan bilgisayarlar, nasıl RAM'den yararlanıyorsa, ileride CPU'yu desteklemek için, GPU kullanılabilir. :) (Belki de kullanılıyordur, bilemiyorum.)

Ancak bu habere alternatif bir örnek olarak Bitcoin verilebilir. Bitcoin madenciliğinde GPU'dan yararlanmak, CPU'dan yararlanmaya göre çok daha iyi.
 
Yani oyun için bu yapılan mantıklı değil mi?
Mantıklı tabi ki ama CPU'nun görevinin farklı, GPU'nun görevinin farklı olduğunu söylemek istedim. CPU bilgisayarın tüm temel işlemlerini hesaplayan bir birimidir ve bir beyindir, bu işlemlerin merkezidir. GPU,
yani grafik işleme ünitesi bilgisayar grafiklerini işleme ve göstermekle sorumludur. Ayrıca bir de APU diye bir şey var, CPU ve GPU'yu bir araya getiren, bu iki birimin daha hızlı iletişimini sağlayan birimler. (Benim dediğime benzer yani.)

Ancak şöyle bir şey var. GPU her ne kadar bizim gözümüzde görüntüyü işleyen, gösteren bir birim olsa da, yani ekran kartı olsa da; aynı zamanda derin öğrenme, mühendislik, dev bilimsel projeler için kullanılan, CPU'dan daha etkili birimlerdir. CPU kullanılır, kullanılmak zorundadır, ancak hesaplama hızını ve gücünü GPU'lara yüklerler. O yüzden AR-GE'de, devlet kurumlarında, veri merkezlerinde vs. GPU ağırlıklı sistemler kullanılıyor.
 
Evet zaten süper bilgisayarlar için ekran kartı kullanılıyordu. Hatta daha geçenlerde (belki 1-2 sene önce) nvidia tesla modelinden yararlanılarak yapılan süper bilgisayar vardı. Tek ekran kartı değil çoklu ekran kartları kullanılıyor.
 
Uyarı! Bu konu 8 yıl önce açıldı.
Muhtemelen daha fazla tartışma gerekli değildir ki bu durumda yeni bir konu başlatmayı öneririz. Eğer yine de cevabınızın gerekli olduğunu düşünüyorsanız buna rağmen cevap verebilirsiniz.

Geri
Yukarı