TSMC Yönetim Kurulu Başkanı, yapay zeka (AI) ve yüksek performanslı bilgi işlem (HPC) uygulamalarına yönelik bilgi işlem GPU’larında süregelen arz eksikliğinin CoWoS (chip-on-wafer-on-substrate) paketleme kapasitesindeki kısıtlamalardan kaynaklandığını itiraf etti. Üretken yapay zeka uygulamalarına yönelik artan talep ve TSMC’deki CoWoS kapasitesinin nispeten yavaş genişlemesi nedeniyle bu sıkıntının yaklaşık 18 ay sürmesi bekleniyor.
Mark Liu, Semicon Taiwan’da Nikkei ile yaptığı bir görüşmede problemlerin temel kaynağını şu şekilde anlattı:
“Sorun yapay zeka çiplerinin yetersizliği değil, CoWoS kapasitemizin yetersizliği. Şu anda müşterilerimizin ihtiyaçlarının %100’ünü karşılayamıyoruz, ancak yaklaşık %80’ini desteklemeye çalışıyoruz. Bunun geçici bir olgu olduğunu düşünüyoruz. Gelişmiş çip paketleme kapasitemizi genişlettikten sonra bu durum bir buçuk yıl içinde hafifleyecektir.”
TSMC, ChatGPT gibi yapay zeka araçlarının ayrılmaz bir parçası olan ve ağırlıklı olarak yapay zeka veri merkezlerinde kullanılan NVIDIA A100 ve H100 bilgi işlem GPU’ları da dahil olmak üzere birçok çözümün üreticisi konumunda. Bu işlemciler, tıpkı AMD, AWS ve Google gibi diğer oyuncuların çözümleri gibi TSMC’nin gelişmiş paketleme tesislerine ek yük getiren CoWoS paketleme teknolojilerinden faydalanıyor. Ayrıca tüm bu ürünler HBM bellekler (yüksek bant genişliği ve kapsamlı dil modellerinin düzgün çalışması için gerekli) kullanmakta.
Liu, CoWoS’a yönelik talebin bu yılın başlarında beklenmedik bir şekilde arttığını ve yıldan yıla üç katına çıkarak mevcut arz kısıtlamalarına yol açtığını söyledi. Tayvanlı dökümhane, üretken yapay zeka hizmetlerine ve bağlantılı olarak uygun donanıma olan talebin arttığını belirtiyor. Bu nedenle, hesaplama GPU’larının yanı sıra özel yapay zeka hızlandırıcıları ve işlemcilerine olan talebi karşılamak için CoWoS kapasitesini genişletmek için ek çalışmalar yapıyorlar.