Anlamadı veya ben anlatamadım. Ben işlemcilerin fiziksel olarak geldiği sınırlardan dolayı ilerleyemeyeceğini söyledim. Ibrahim ise yazılım gibi birçok detaya girmiş. Ibrahim optimizasyonla açıklamaya çalışmış. Optimizasyonlar sınırları aşmak değil, var olan sınırlar içerisinde en iyisini yapmaya çalışmaktır.
Bak benim başından beri tartıştığım şey nm değil. Benim kast ettiğim, nm düşürmeden de işlemcilerde büyük performans artışlarının olabileceği, bunu gelecekte sıklıkla görebileceğimiz. İşlemcide performans arttırmak sadece GHz'sinin yükseltmek değil ayrıca. Başından beri diyorum, amaç nm düşürmek değil performans arttırmak. İşlemcilerde hala optimize edilememiş ve hala düzgün ve verimli tasarlanamayan alanlar var. Bunun yanında zamanla donanımsal encoder/decoder tarzı yapıların sayısı da artacak.
Tüm bunların yanında, nm düşürmedeki ana engelin kuantum tünellemesi değil, üretim ve litografi olduğunu da belirtmek gerek. Quantum Tunneling, örnek olarak mutlak sıfır ise (–273,15 °Celsius) litografi ve üretim engelleri de o noktaya ulaşmanı engelleyen faktörlerdir. Bunu zaten kimse inkar etmiyor. Kendi kendine tartışıyorsun şu an.
Şu şekilde örneklendirebiliriz. Yakıttan itkiye çevirebileceğiniz enerjinin sınırı bellidir. 100% verime çıkamazsınız hatta en fazla erişebileceğiniz 70% civarıdır. Işlemcilerde artık bu sınıra yaklaşıyoruz. Daha fazla transistör sıkıştırılamayacak çünkü imkansız. Kuantum tünelleme engellenmediği sürece imkansız, kuantum hakkında bilgilerimiz sınırlıyken daha sıkıştırmak mümkün değil. Ibrahim'in bahsettiği olaylar ise var olanı daha verimli kullanmaya çalışmak.
Hayır, jet motoru ile işlemciler bu tarzda örneklendirilemez. Verimlilik konusunda örnekler verilebilir ancak jet motoru dediğimiz sistem, işlemciler gibi ya da işlemciler kadar ölçeklendirilebilir değildir.
Olanı verimli kullanmak, yazılımla olur. Ben sistemi baştan tasarlamaktan ve donanımsal özellikleri arttırmaktan bahsediyorum. Bu verimlilik değildir, optimizasyon da değildir. Bu kısaca yeni bir mimaridir. "Double Precission'a sahip olan STM32 ve olmayan STM32" örneğinde verdim. Bu optimizasyonla alakalı değil. Yazılımla bunu halledemezsin. Donanımsal olarak hallettiğin zaman ise sadede işlemcinin kullandığı güç ya da kaynak azalmaz,
işlemin doğruluğu da artar.
Jet motoru örneğimize geri dönelim. Maksimum verimde olduğumuzu düşünelim. Motordan parçalar çıkarıp veya şeklini değiştirip kaybedilen enerjiyi asgari düzeye indirelim. Ibrahim'in bahsettiği şey işte bu, optimizasyon. Bir yere kadar yapılabilir ve belli kazanımlar elde edilebilir ama en sonunda ya motoru büyültmek veya alternatif çözümlere ilerlemek gerekecek. İşlemciye uyarladığımızda ya frekansı arttırmak ya da direkt işlemcinin kapladığı alanı arttırmak zorunluluk. Veya yeni bir teknoloji.
Optimizasyon bu değil ki hala işlemcide performans arttırmanın yolunu sadece alanı arttırmak ya da frekansı arttırmak olarak görüyorsun. Sana çekirdek örneğini vermiştim ve orada da bahsetmiştim. Aslında bir noktada transistör sınırına zaten ulaşıldı. Bu yüzden işlemciler birden fazla çekirdekle geliyor ve bu yüzden AMD'nin Threadripper gibi işlemcileri birden fazla Die ile tasarlanıyor:
Tekrar ediyorum, Kuantum tunneling transistörler için bir sorun. İŞlemciler için ondan önce gelen sorunlar mevcut ve hatta bugün bile kendilerini gösteriyorlar.
Transistörler, geometri kullanarak 1nm'ye kadar küçülme/ölçekleme yapabilirler. Zaten 2nm transistörler ve çipler tanıtılmıştı. 1 nm'nin altına inemeyiz zira o zaman yarım atom kullanarak nasıl transistör yapılacağını bulmanız gerekir. Bu da fiziki olarak imkansızdır.
Yani TSMC'ye göre, transistörler istiflenecekler. Bu yeni bir durum değil. İstifleme ile ilgili ana sorun ısı ve sıcaklıktır. Şİrketler ise on yıldan fazla bir süredir bunun üzerinde çalışıyorlar.
İşin garibi, çoğu cihazın buna ihtiyacı bile yok. Karma gerçeklik uygulamaları ya da devasa 8K AR sistemler gelmedikçe... O zaman işlem gücünü biraz artırmamız gerekebilir, ancak bundan sonra hepsi back end'de bitecek. 5G ya da karma gerçeklikte bile, işlemlerin çoğunu back end olarak yapabiliriz.
Bu yüzden endüstrinin nereye gittiğini görmek gerçekten ilginç olacak. Ancak işleme kapasitesini artırmak için istifleme yapacaklar.
Mevcut durum 5 nm transistörlere kayıyor, bu nedenle bir sonraki CPU için 7 nm'nin ötesindeyiz. AMD Zen+ yenilemesinin teknik olarak şu anda 12nm'lik bir düğümde olduğuna inanıyorum, bu yüzden 14nm'nin altında bazı güncel CPU'larımız bile var.
En büyük sorun, bağlantı telleri. Transistörler kadar iyi ölçeklenmezler. Daha küçük teller, daha küçük kesit alanı nedeniyle daha yüksek dirence sahiptir. Ayrıca, kabloları birbirine ne kadar yakınlaştırırsanız, kablolar arasındaki parazitik kapasitans o kadar yüksek olur. Bunların ikisi de kabloları yavaşlatır.
Yani, şu anda gördüğünüz şey, birbirine o kadar yakın toplayamayacağınız daha küçük, daha hızlı anahtarlamalı transistörler. Bazı enerji verimliliği avantajları elde edebilirsiniz, ancak beklediğiniz kadar alan yoğunluğu avantajı sağlayamazsınız.
Teknolojiyi ilerletmeye devam ediyoruz, ancak ölçeklendirme sınırlarına giderek daha fazla karşı çıkıyoruz.
Ki, quantumm tunneling dediğin şey vakum tüplerden CMOS transistörlere geçildiğinde bile yaşandı. Ancak bilim ve fizik, buna sürekli çözümler buldu. Gördüğün gibi, quantum tunneling hatta litografiye bile gelmeden, seni bağlantı kabloları sınırlıyor.
Nasıl işlemci seçerken sadece nm'ye bakmıyorsak, işlemcilerin geleceğini düşünürken ya da gelişebileceği alanları düşünürken de sadece nm'ye bakmamalıyız. Dediğim gibi, işlemcilerin gelişebileceği hala birçok alan var ve bunlar optimizasyon değil. Basitçe Intel'in x86 yerine RISC ya da RISC-V'ye geçmesi işte. Ya da grafen transistörler ya da
Mn doped III-V yarı iletkenler ya da
Galyum...
Şu an bilgisayarda ya da OS'de yaptığın birçok matematik ya da hesaplama işlemini yazılım katmanında yapıyorsun. Bir kere bunların işlemcilere donanımsal olarak entegre edilmesi, en az 10 senelik bir performans arttırımı sağlayabilir.
Kuantum bilgisayarları çözüm değil. Kuantum bitlerinin işlem doğruluklarını koruyabilmesi için mutlak sıfır seviyesine yakın şekilde soğutulması(-273 C°~) gerekli. Son tüketiciye gelmesi yıllar alır. Bunun haricinde kuantum bilgisayarlar hala deneysel ve bilimsel/askeri alanlarda kullanılmaktan bile uzakta.
K,imse çözüm demedi ancak kullanılamaz da değiller. FPGA'ler ile çok farklı mantıkları olsa da, aynı FPGA'lar gibi kullanım senaryosuna özel tasarlanabilirler. Büyük ölçekli fabrika ya da tesisleri düşündüğünde, tasarım ve üretim maliyetleri pahalı olsa da işletme maliyetleri, verdiği performansa göre aynı oranda kalır. Yani, en azından IBM ve Intel gibi şirketlerin hedeflediği ilk kilometre taşı, bu tür bir ürün ortaya çıkartmak.
Bunun haricinde kuantum bilgisayarlar hala deneysel ve bilimsel/askeri alanlarda kullanılmaktan bile uzakta.
Geliştirmeler devam ediyor. Burada ana sorun qubit mantığına göre bir mimari inşa etmek.
Şu an mevcut işlemcilerde, elektriksel verimliliğe gelmeden önce alan verimliliği ya da yazılımsal verimlilik konuları var. Bir başka konuda sana, Intel'in, çekideklerinin temelinde RISC-V kullandığını söylemiştim. Önümüzdeki 10 - 20 - 30 senelik süreçte de mimariler gelişmeye devam edecek.
Son olarak şu konuya dikkat çekmek isterim. Sen nm'nin sınırının olduğunu belirtiyorsun ve haklısın, bu sınır var ve kimse inkar etmiyor. Ancak benim kast ettiğim, bu sınıra rağmen nm düşmese bile performans artışının katlanabileceği.