輝達新晶片若賣得好 陸行之:英特爾、超微就不用玩了
輝達(Nvidia)執行長黃仁勳表示,輝達已是「AI代工者」,希望成爲「AI界的臺積電」。美聯社
輝達(NVIDIA) 2024年 GTC大會登場,執行長黃仁勳發表命名爲 Blackwell 的新一代圖形處理器(GPU)設計架構,資深半導體產業評論家陸行之在臉書分享五點看法,認爲,「GB200 Superchip 把2顆B100及 72顆 ARM Neoverse V2 CPU cores 一起包起來,如果賣的好,Intel/AMD 的AI server CPU 就不用玩了」。
輝達今年的GTC大會,包括客戶、合作伙伴和粉絲齊聚職業冰球聯盟聖荷西鯊魚隊主場的SAP中心,會場足可容納11,000人,執行長黃仁勳在 GTC 大會上發表命名爲 Blackwell 的新一代圖形處理器(GPU)設計架構。
Blackwell 新架構的晶片涵蓋2,080億個電晶體,是去年推出的H100 GPU 的2.6倍,大幅提升人工智慧(AI)的運算能力,黃仁勳表示,這款晶片在訓練AI模型方面的效能是當前一代GPU的兩倍,在「推論」方面,譬如ChatGPT迴應查詢的速度高達五倍。
黃仁勳指出,輝達GB200「超級晶片」,將結合兩個 Blackwell GPU 和現有「Grace」架構的CPU。用戶可選擇將這些產品搭配新的網路晶片,其中一種使用專屬的 InfiniBand 標準,另一種使用較常見的 Ethernet 協議。
陸行之在臉書上提出五點看法,他表示,「先看了40分鐘,幾個關鍵數字分享」,陸行之表示,「Blackwell 100 有 2,080億電晶體 比 Hopper 100 的 800億電晶體多1,280億電晶體」;另外,「B100跟H100相同,都是用臺積電4nm, 但是把兩個晶片用封裝結合,不是用微縮來加倍運算速度」。
陸行之認爲,「GB200 Superchip 把2顆B100及 72顆 ARM Neoverse V2 CPU cores 一起包起來,如果賣的好,Intel/AMD 的AI server CPU 就不用玩了」;不過,他也點出,「不懂爲何兩顆B100(192+192=384HBM3e)+一顆 Grace CPU 的GB200 Superchip 怎麼 HBM3e突然暴增到864GB? 理論上 CPU應該配LPDDR,但Nvidia說兩組GB200有1.7TB HBM3e,是不是做ppt的小朋友搞錯了」。
最後一個看法,陸行之說,「要建立32,000顆 B100 GPU 的AI datacenter,能提供645 exaFLOPS 的AI performance,大概要花12億美元在B100 GPU上, 3億美元系統,3~5億 ARM CPU,還要近890顆的NVlink switch 晶片,也是用臺積電4nm來製造,感覺20億美元以上跑不掉」。