朱晏民專欄-AI軍備賽 GPU晶片大廠最受惠
人工智慧結合自然語言模型的聊天機器人ChatGPT-3才爆紅3個半月,Microsoft旗下OpenAI又於3月中旬再推出ChatGPT-4,讓對話能力較前一代暴增8倍,且一次可處理的單詞從3,000個提升至25,000個。爲趁勝追擊,Microsoft更一舉結合雲端服務Azure,將人工智慧應用到Windows作業系統,並於3月中旬正式發表Office 365 Copilot,藉此加快使用者工作效率。
AI助理Copilot只要用自然語言對話就能控制辦公室軟體自動生成內容、協助處理工作:若用word寫文章,只需簡短提示,Copilot即能創建一個初稿,使用者再稍做修改即可。寫好的word檔也可自動生成PPT簡報檔。微軟指出,目前使用PowerPoint簡報軟體的用戶大約只用到該軟體約3%的功能,未來透過Copilot,PowerPoint簡報將會充分發揮剩餘97%功能並使簡報更加美輪美奐。另線上會議軟體Teams未來也可透過Copilot而自動生成會議大綱與會議紀錄。
Google3月中旬也宣佈推出辦公室軟體Workspace的生成式AI新功能Magic Wand;未來Google文件也能運用AI產生主題內容、整理重點、產生圖像與影片,讓使用者大幅提升工作效率。
近期時代雜誌以「人工智慧軍備競賽正改變一切」爲封面標題並指出AI技術已達實用水準,且運算能力正以每6~10個月成長1倍的速度增長。隨着愈來愈多企業投入生成式AI發展,不論AI大戰未來由誰勝出都將帶動GPU與伺服器的需求大幅增加。由於生成式AI必須投入巨量資料進行訓練,爲縮短訓練就得采用大量高效能的GPU。
以ChatGPT背後的模型爲例,其訓練參數從2018年約1.2億個至2020年已暴增至1,800億個,目前GPU的使用量約達2萬顆,未來將邁向3萬顆。同時AI伺服器因需搭載更多的GPU,使得每臺AI伺服器單價將超過30,000美元,遠高於目前一般伺服器平均約7,000-10,000美元的單價。由於AI伺服器單價較高,預估2023年AI伺服器佔全球伺服器出貨量雖僅1%,惟產值卻可達15%~20%,且2024~25年將可再攀升至20%~30%。
伺服器算力提高與GPU搭載數增加將使伺服器產生更多熱能。Intel的Sapphire Rapids與AMD的Genoa CPU熱設計功耗(TDP)約350瓦~400瓦,而每一顆GPU(Nvidia的A100/H100)將額外產生300瓦~700瓦的熱能,此將使搭配的散熱模組與電源供應器規格需一併提升,有效帶動散熱與電源相關業者產品均價的提升與毛利率的優化。
綜合而言,在全球大廠積極進行生成式AI的軍備競賽下,GPU晶片大廠將是主要受惠者,其次則是AI伺服器與質量一併獲得提升的相關零組件等。另由於AI晶片目前主要由Nvidia、AMD、Intel等傳統處理器大廠所壟斷,包含Apple、Tesla、Amazon、Microsoft、華爲等科技巨頭亦積極投入AI晶片的開發,由於它們的AI晶片設計能力與傳統處理器大廠仍有一段差距,因此透過IP服務業者設計自家所需的特殊晶片(ASIC)將成爲中長期重要趨勢,IP矽智財的戰略地位亦將與日俱增。