蘇姿豐2小時激情演講!發佈AMD最強AI芯片,旗艦CPU單顆10萬,OpenAI微軟都來站臺

智東西作者 ZeR0編輯 漠影

猛,實在是猛!就在今日,老牌芯片巨頭AMD交出了一份令人印象深刻的AI答卷。

智東西美國舊金山10月10日現場報道,酷熱的天氣剛剛過去,舊金山正值秋意涼爽,今日舉行的AMD Advancing AI 2024盛會卻格外火熱。

AMD傾囊倒出了一系列AI殺手鐗,發佈全新旗艦AI芯片、服務器CPU、AI網卡、DPU和AI PC移動處理器,將AI計算的戰火燒得更旺。

這家芯片巨頭還大秀AI朋友圈,現場演講集齊了谷歌、OpenAI、微軟、Meta、xAI、Cohere、RekaAI等重量級AI生態夥伴。

備受期待的旗艦AI芯片AMD Instinct MI325X GPU首次啓用HBM3E高帶寬內存,AI峰值算力達到21PFLOPS,並與去年發佈的、同樣採用HBM3E的英偉達H200 GPU用數據掰手腕:內存容量是H200的1.8倍,內存帶寬、FP16和FP8峰值理論算力都是H200的1.3倍。

AMD還披露了最新的AI芯片路線圖,採用CDNA 4架構的MI350系列明年上市,其中MI355X的AI峰值算力達到74PFLOPS,MI400系列將採用更先進的CDNA架構。

更高的數據中心算力,離不開先進的網絡解決方案。對此,AMD發佈了業界首款支持UEC超以太網聯盟的AI網卡Pensando Pollara 400和性能翻倍提升的Pensando Salina 400 DPU。

另一款重磅新品是第五代EPYC服務器CPU,被AMD稱爲“面向雲計算、企業級和AI的全球最好CPU”,採用臺積電3/4nm製程工藝,最多支持192核、384個線程。其中頂配EPYC 9965默認熱設計功耗500W,以1000顆起訂的單價爲14813美元(約合人民幣10萬元)。

與第五代英特爾至強鉑金8592+處理器相比,AMD EPYC 9575F處理器的SPEC CPU性能提高多達2.7倍,企業級性能提高多達4.0倍,HPC(高性能計算)性能提高多達3.9倍,基於CPU的AI加速提高多達3.8倍,GPU主機節點提升多達1.2倍。

自2017年重回數據中心市場後,AMD一路勢頭強勁:其數據中心CPU收入市佔率在2018年還只有2%,今年上半年已攀爬到34%,在全球覆蓋超過950個雲實例和超過350個OxM平臺。

AMD是唯一一家能夠提供全套CPU、GPU和網絡解決方案來滿足現代數據中心所有需求的公司。

AI PC芯片也迎來了新成員——AMD第三代商用AI移動處理器銳龍AI PRO 300系列。它被AMD稱作“爲下一代企業級AI PC打造的全球最好處理器”。

一、旗艦AI芯片三代同堂:內存容量帶寬暴漲,峰值算力衝9.2PF

AI芯片,正成爲AMD業務增長的重頭戲。

AMD去年12月發佈的Instinct MI300X加速器,已經成爲AMD歷史上增長最快的產品,不到兩個季度銷售額就超過了10億美元。

今年6月,AMD公佈全新年度AI GPU路線圖,最新一步便是今日發佈的Instinct MI325X。在7月公佈季度財報時,AMD董事會主席兼CEO蘇姿豐博士透露,AMD預計其今年數據中心GPU收入將超過45億美元。

微軟、OpenAI、Meta、Cohere、Stability AI、Lepton AI(賈揚清創辦)、World Labs(李飛飛創辦)等公司的很多主流生成式AI解決方案均已採用MI300系列AI芯片。

微軟董事長兼CEO薩提亞·納德拉對MI300讚譽有加,稱這款AI加速器在微軟Azure工作負載的GPT-4推理上提供了領先的價格/性能。

基於Llama 3.1 405B運行對話式AI、內容生成、AI Agent及聊天機器人、總結摘要等任務時,MI300的推理速度最多達到英偉達H100的1.3倍。

新推出的MI325X進一步擡高性能,跑Mixtral 8x7B、Mistral 7B、Llama 3.1 70B等大模型的推理性能,比英偉達H200快20%~40%。

MI325X擁有1530億顆晶體管,採用CDNA 3架構、256GB HBM3E內存,內存帶寬達6TB/s,FP8峰值性能達到2.6PFLOPS,FP16峰值性能達到1.3PFLOPS。

由8張MI325X組成的服務器平臺有2TB HBM3E內存;內存帶寬達到48TB/s;Infinity Fabric總線帶寬爲896GB/s;FP8性能最高達20.8PFLOPS,FP16性能最高達10.4PFLOPS。

相比英偉達H200 HGX,MI325X服務器平臺在跑Llama 3.1 405B時,推理性能可提高40%。

從訓練性能來看,單張MI325X訓練Llama 2 7B的速度超過單張H200,8張MI325X訓練Llama 2 70B的性能比肩H200 HGX。

AMD Instinct MI325X加速器或將於今年第四季度投產,將從明年第一季度起爲平臺供應商提供。

下一代MI350系列採用3nm製程工藝、新一代CDNA 4架構、288GB HBM3E內存,新增對FP4/FP6數據類型的支持,推理性能相比基於CDNA 3的加速器有高達35倍的提升,有望在2025年下半年上市。

MI355X加速器的FP8和FP16性能相比MI325X提升了80%,FP16峰值性能達到2.3PFLOPS,FP8峰值性能達到4.6PFLOPS,FP6和FP4峰值性能達到9.2PFLOPS。

8張MI355X共有2.3TBHBM3E內存,內存帶寬達到64TB/s,FP16峰值性能達到18.5PFLOPS,FP8峰值性能達到37PFLOPS,新增FP6和FP4的峰值性能爲74PFLOPS。

三代GPU的配置顯著升級:相比8卡MI300X,8卡MI355X的AI峰值算力提升多達7.4倍、HBM內存提高多達1.5倍、支持的模型參數量提升幅度接近6倍。

AMD持續投資軟件和開放生態系統,在AMD ROCm開放軟件棧中提供新特性和功能,可原生支持主流AI框架及工具,具備開箱即用特性,搭配AMD Instinct加速器支持主流生成式AI模型及Hugging Face上的超過100萬款模型。

ROCm 6.2現包括對關鍵AI功能的支持,如FP8數據類型、Flash Attention、內核融合等,可將AI大模型的推理性能、訓練性能分別提升至ROCm 6.0的2.4倍、1.8倍。

此前AMD收購了歐洲最大的私人AI實驗室Silo AI,以解決消費級AI最後一英里問題,加快AMD硬件上AI模型的開發和部署。歐洲最快的超級計算機LUMI便採用AMD Instinct加速器來訓練歐洲語言版的大語言模型。

二、下一代AI網絡:後端引入業界首款支持UEC的AI網卡,前端上新400G可編程DPU

網絡是實現最佳系統性能的基礎。AI模型平均有30%的訓練週期時間都花在網絡等待上。在訓練和分佈式推理模型中,通信佔了40%-75%的時間。

AI網絡分爲前端和後端:前端向AI集羣提供數據和信息,可編程DPU不斷髮展;後端管理加速器與集羣間的數據傳輸,關鍵在於獲得最大利用率。

爲了有效管理這兩個網絡,並推動整個系統的性能、可擴展性和效率提升,AMD今日發佈了應用於前端網絡的Pensando Salina 400 DPU和應用於後端網絡的Pensando Pollara 400網卡。

Salina 400是AMD第三代可編程DPU,被AMD稱作“前端網絡最佳DPU”,其性能、帶寬和規模均提高至上一代DPU的兩倍;Pollara 400是業界首款支持超以太網聯盟(UEC)的AI網卡。

Salina 400支持400G吞吐量,可實現快速數據傳輸速率,可爲數據驅動的AI應用優化性能、效率、安全性和可擴展性。

Pollara 400採用AMD P4可編程引擎,支持下一代RDMA軟件,並以開放的網絡生態系統爲後盾,對於在後端網絡中提供加速器到加速器通信的領先性能、可擴展性和效率至關重要。

UEC Ready RDMA支持智能數據包噴發和有序消息傳遞、避免擁塞、選擇性重傳和快速損失恢復。這種傳輸方式的消息完成速度是RoCEv2的6倍,整體完成速度是RoCEv2的5倍。

在後端網絡,相比InfiniBand,以太網RoCEv2是更好的選擇,具有低成本、高度可擴展的優勢,可將TCO節省超過50%,能夠擴展100萬張GPU。而InfiniBand至多能擴展48000張GPU。

三、服務器CPU:3/4nm製程,最多192核/384線程

今年7月公佈財報時,蘇姿豐提到今年上半年,有超過1/3的企業服務器訂單來自首次在其數據中心部署EPYC服務器CPU的企業。

第五代EPYC處理器9005系列(代號“Turin”)專爲現代數據中心設計。

該處理器在計算、內存、IO與平臺、安全四大層面全面升級。

第五代EPYC擁有1500億顆晶體管,採用臺積電3/4nm 製程、全新“Zen 5”及“Zen 5c”核心兼容廣泛部署的SP5平臺,最多支持192核、384個線程,8~192核的功耗範疇爲155W~500W。

它支持AVX-512全寬512位數據路徑、128 PCIe 5.0/CXL 2.0、DDR5-6400MT/s內存速率,提升頻率高達5GHz,機密計算的可信I/O和FIPS認證正在進行中。

與“Zen 4”相比,“Zen 5”核心架構爲企業和雲計算工作負載提供了提升17%的IPC(每時鐘指令數),爲AI和HPC提供了提升37%的IPC。

在SPEC CPU 2017基準測試中,192核EPYC 9965的整數吞吐量是64核至強8592+的2.7倍,32核EPYC 9355的每核心性能是32核6548Y+的1.4倍。

跑視頻轉碼、商用App、開源數據庫、圖像渲染等商用工作負載時,192核EPYC 9965的性能達到64核至強8592+性能的3~4倍。

在處理開源的HPC密集線性求解器、建模和仿真任務時,EPYC 9965的性能可達到至強8592+性能的2.1~3.9倍。

達到相同性能,第五代EPYC所需的服務器數量更少,有助於降低數據中心的TCO(總擁有成本)以及節省空間和能源。

例如,要達到總共391000個單位的SPECrate 2017_int_base性能得分,相比1000臺搭載英特爾至強鉑金8280的服務器,現在131臺搭載AMD EPYC 9965的現代服務器就能實現,功耗、3年TCO均顯著減少。

通過優化的CPU+GPU解決方案,AMD EPYC CPU不僅能處理傳統通用目的的計算,而且能勝任AI推理,還能作爲AI主機處理器。

相比64核至強8592+,192核EPYC 9965在運行機器學習、端到端AI、相似搜索、大語言模型等工作負載時,推理性能提升多達1.9~3.8倍。

AMD EPYC 9005系列的新產品是64核EPYC 9575F,專爲需要終極主機CPU能力的GPU驅動AI解決方案量身定製。

與競爭對手的3.8GHz處理器相比,專用AI主機的CPU EPYC 9575F提供了高達5GHz的提升,可將GPU編排任務的處理速度提高28%。

面向企業級HPC工作負載,64核EPYC 9575F的FEA仿真和CFD仿真&建模的性能,可提升至64核至強8592的1.6倍。

EPYC 9575F可使用其5GHz的最大頻率提升來助力1000個節點的AI集羣每秒驅動多達70萬個推理token。同樣搭配MI300X GPU,與64核至強8592+相比,EPYC 9575F將GPU系統訓練Stable Diffusion XL v2文生圖模型的性能提升20%。

搭配Instinct系列GPU的AMD EPYC AI主機CPU型號如下:

同樣搭配英偉達H100,EPYC 9575F可將GPU系統的推理性能、訓練性能分別相比至強8592+提升20%、15%。

與英偉達GPU系統適配的AMD EPYC AI主機CPU型號如下:

將EPYC用於計算與AI混合工作負載時,相比至強鉑金8592+,EPYC 9654+2張Instinct MI210在處理50%通用計算+50% AI的混合任務時,每美元性能可提升多達2倍。

四、企業級AI PC處理器:升級“Zen 5”架構,AI算力最高55TOPS

AI PC給企業生產力、身臨其境的遠程協作、創作與編輯、個人AI助理都帶來了全新轉型體驗。

繼今年6月推出第三代AI移動處理器銳龍AI 300系列處理器(代號“Strix Point”)後,今日AMD宣佈推出銳龍AI PRO 300系列。

該處理器專爲提高企業生產力而設計,採用4nm工藝、“Zen 5”CPU架構(最多12核、24個線程)、RDNA 3.5GPU架構(最多16個計算單元),支持Copilot+功能,包括電話會議實時字幕、語言翻譯、AI圖像生成等。

其內置NPU可提供50-55TOPS的AI處理能力。

40TOPS是微軟Copilot+ AI PC的基準要求。相比之下,蘋果M4、AMD銳龍PRO 8040系列、英特爾酷睿Ultra 100系列的NPU算力分別爲38TOPS、16TOPS、11TOPS。

與英特爾酷睿Ultra 7 165H相比,旗艦銳龍AI 9 HX PRO 375的多線程性能提高了40%,辦公生產力提高了14%,支持更長續航。

銳龍AI PRO 300系列採用AMD PRO技術,提供世界級領先的安全性和可管理性,旨在簡化IT運營及部署並確保企業獲得卓越的投資回報率。

由搭載銳龍AI PRO 300系列的OEM系統預計將於今年晚些時候上市。

AMD也擴展了其PRO技術陣容,具有新的安全性和可管理性功能。配備AMD PRO技術的移動商用處理器現有云裸機恢復的標準配置,支持IT團隊通過雲無縫恢復系統,確保平穩和持續的操作;提供一個新的供應鏈安全功能,實現整個供應鏈的可追溯性;看門狗定時器,提供額外的檢測和恢復過程,爲系統提供彈性支持。

通過AMD PRO技術,還能實現額外的基於AI的惡意軟件檢測。這些全新的安全特性利用集成的NPU來運行基於AI的安全工作負載,不會影響日常性能。

結語:AMD正在數據中心市場攻勢兇猛

AMD正沿着路線圖,加速將AI基礎設施所需的各種高性能AI解決方案推向市場,並不斷證明它能夠提供滿足數據中心需求的多元化解決方案。

AI已經成爲AMD戰略佈局的焦點。今日新發布的Instinct加速器、霄龍服務器CPU、Pensando網卡&DPU、銳龍AI PRO 300系列處理器,與持續增長的開放軟件生態系統形成了組合拳,有望進一步增強AMD在AI基礎設施競賽中的綜合競爭力。

無論是蠶食服務器CPU市場,還是新款AI芯片半年攬金逾10億美元,都展現出這家老牌芯片巨頭在數據中心領域的衝勁。緊鑼密鼓的AI芯片產品迭代、快速擴張的全棧軟硬件版圖,都令人愈發期待AMD在AI計算市場創造出驚喜。