黃仁勳業績會萬字實錄:那麼多客戶需求GPU,我們的壓力太大了

5月23日消息,美國當地時間週三,英偉達公佈了該公司截至2024年4月28日的2025財年第一財季財報。報告顯示,英偉達第一財季營收260億美元,同比增長262%,超過分析師平均預期的246.5億美元;淨利潤148.1億美元,同比上升628%;每股收益爲5.98美元,超過分析師平均預期的5.59美元。由於營收和利潤均超出市場預期,英偉達股價財報後大漲,股價首次超過1000美元大關。

財報發佈後,英偉達總裁兼首席執行官黃仁勳(Jensen Huang)和執行副總裁兼首席財務官科莉特·克雷斯(Colette Kress)等高管出席隨後召開的財報電話會議,解讀財報要點並回答分析師提問。

黃仁勳財報解讀

目前整個行業正經歷着重大變革。在開始問答環節之前,我想談談這場變革的重要性。新的工業革命已經開啓。

許多公司和國家正與英偉達合作,將價值數萬億美元的傳統數據中心轉型爲加速計算,並致力於建設新型的數據中心,即人工智能工廠(AI Factories),以生產史無前例的商品——人工智能。

人工智能將爲幾乎所有行業帶來翻天覆地的效率提升,幫助企業在擴大收入的同時,提高成本效益和能源效率。雲服務提供商是生成式人工智能的先行者。藉助英偉達的先進技術,這些雲服務商加速了工作負載處理,節省資金並減少電力消耗。而英偉達Hopper平臺所產生的Token,爲他們的AI服務帶來了收入,而英偉達雲實例則吸引了我們龐大開發者生態系統中的租戶。

由於生成式人工智能在Hopper平臺上的訓練和推理需求迅速增長,我們的數據中心業務也在強勁增長。訓練的規模持續擴大,因模型學習如何處理多模態內容,如文本、語音、圖像、視頻和3D,並學習如何進行推理和規劃。

我們的推理工作量正在顯著增加。隨着生成式人工智能的發展,推理現在涉及在巨大規模上快速生成Token,這變得極其複雜。生成式人工智能正在驅動從基礎到全棧的計算平臺轉型,將徹底改變我們與計算機的每一次交互體驗。我們正在從今天的信息檢索模型轉向一個生成答案和技能的計算模型。人工智能將逐漸理解上下文和我們的真實意圖,並具備更爲強大的知識、推理、規劃以及執行任務的能力。

我們正在從根本上改革計算機的工作方式和功能,從通用CPU轉向GPU加速計算,從指令驅動軟件到理解意圖的模型,從簡單的信息檢索到執行復雜技能。而在工業層面上,我們從傳統的軟件生產轉變爲Token生成,即數字智能的製造。

Token生成將持續推動人工智能工廠的長期建設。除了雲服務提供商之外,生成式人工智能還擴展到了消費者互聯網公司、各類企業、主權人工智能(Sovereign AI)、汽車及醫療保健領域,從而孕育了多個價值數十億美元的垂直市場。

Blackwell平臺已全面啓用,爲處理萬億參數級別的生成式人工智能奠定了堅實基礎。Grace CPU、Blackwell GPU、NVLink、Quantum 和 Spectrum 以及高速互聯技術的結合,並輔以我們豐富的軟件和合作夥伴生態系統,使我們能爲客戶提供前所未有的更全面、更完善的人工智能工廠解決方案。

Spectrum-X爲我們開闢了一個全新的市場,使我們能將大規模人工智能引入僅限以太網的數據中心。NVIDIA NIM,作爲我們的新軟件產品,在我們廣泛的生態系統合作伙伴網絡的支持下,可在從雲到現場數據中心,再到RTX AI個人電腦的各種環境中運行企業級優化的生成式人工智能。從Blackwell到Spectrum-X再到NIM,我們已爲未來增長的新浪潮做好了準備。

以下爲分析師問答環節:

伯恩斯坦分析師斯泰西·拉斯岡(Stacy Rasgon):我想深入瞭解Blackwell的情況,它目前已經全面投產,這是否意味着產品已經過了樣品階段?如果是這樣,這將如何影響發貨和交付時間?當Blackwell真正到達客戶手中時,對他們來說又意味着什麼?

黃仁勳:我們將會開始發貨。實際上,我們已經開始了一段時間的生產。但我們的生產發貨將從第二季度開始,並在第三季度加速,客戶應該可以在第四季度建立起數據中心。

拉斯岡:Blackwell今年是否能夠帶來收入?

黃仁勳:是的,今年我們將看到Blackwell帶來大量收入。

瑞銀分析師蒂莫西·阿庫裡(Timothy Arcuri):我想對比下Blackwell與Hopper在部署方面的差異,特別是考慮到系統特性和對GB的巨大需求。這次部署與Hopper有何不同?我這樣問是因爲,我們之前從未採用過大規模的液體冷卻技術,並且在節點層面及數據中心內存在一些工程挑戰。這些複雜性是否會延長過渡期?您如何看待這一過程的進行?

黃仁勳:是的,Blackwell有多種配置。Blackwell是一個平臺,不僅僅是一個GPU。這個平臺支持風冷、液冷、x86和Grace、InfiniBand、現在還有Spectrum-X和我在GTC上展示的非常大的NVLink領域。因此,對於一些客戶來說,他們將在已經安裝了Hopper的現有數據中心基礎上逐步過渡。他們可以輕鬆地從H100轉換到H200再到B100。因此,Blackwell系統在設計時就考慮到了向後兼容性,在電力和機械方面都進行了充分的考慮。

當然,運行在Hopper上的軟件堆棧在Blackwell上也將表現出色。我們也一直在爲整個生態系統“注入活水”,讓他們爲液冷做好準備。我們已經與Blackwell的生態系統中的公司進行了長時間的深入討論,包括雲服務提供商、數據中心、ODM、系統製造商、我們的供應鏈以及冷卻技術供應鏈和數據中心供應鏈。他們不會對Blackwell的到來以及我們希望通過Grace和Blackwell 200提供的能力感到驚訝。

美國銀行證券分析師維維克·阿雅(Vivek Arya):感謝你回答我的問題,仁勳。我想了解一下,你是如何確保你的產品保持高利用率,並且防止因供應緊張、競爭或其他因素導致的提前採購或囤積行爲?您們系統中有哪些機制可以讓我們放心,保證收益與非常強勁的出貨量增長保持同步?

黃仁勳:這是一個非常重要的觀點,我會直接回答你的問題。目前,全球數據中心對GPU的需求達到了驚人的水平。我們每天都在爲趕上這種需求而努力奮鬥。原因在於,像ChatGPT和GPT-4這類應用正在邁向多模態處理,Gemini、Anthropic以及所有云服務提供商(CSP)正在進行的工作都在消耗掉市場上所有可用的GPU資源。此外,還有大約15000至20000家涉及多媒體、數字角色以及各類設計工具和生產力應用的生成式人工智能初創公司,包括數字生物學和自動駕駛視頻訓練領域的公司,它們都在積極擴張,對GPU資源的需求日益增加。我們實際上正在與時間賽跑。客戶對我們的壓力巨大,迫切希望我們儘快交付並部署系統。

此外,我們還面臨着來自主權人工智能的挑戰,它們旨在利用國家的自然資源數據訓練地區模型。這些系統的部署同樣承受着巨大的壓力。因此,目前的需求非常高,遠遠超過了我們的供應能力。

從長遠來看,我們正在徹底改革計算機的運作方式。這是一場重大的平臺轉換,雖然它被比作歷史上的其他平臺變革,但時間將證明,這次轉變將比以往任何一次都更爲深刻。因爲現代計算機不再僅僅由指令驅動,而是轉向了理解用戶的意圖。它不僅能理解我們與之交互的方式,還能把握我們的需求和意圖,並具備迭代推理的能力,能夠制定並執行解決方案。因此,計算機的每一個方面都在發生變化,從簡單的信息檢索轉變爲生成與上下文相關的智能答案。這將徹底改變全球的計算架構,甚至連PC計算平臺也將經歷一場革命。這一切只是開始,未來我們將在實驗室中繼續探索,並與全球的初創公司、大型企業和開發者合作,共同推動這場變革,其影響將是非凡的。

摩根士丹利分析師約瑟夫·摩爾(Joseph Moore):我理解你剛纔所說的需求有多麼強勁。你們的H200和Blackwell都有着巨大的需求。那麼,在遷移到Hopper和H100產品時,你預計會有怎樣的市場反應?人們是否會等待這些新產品上市,期待它們的出色表現?或者你認爲H100本身的需求就足夠維持增長?

黃仁勳:我們注意到這個季度對Hopper的需求正在持續增長。我們預計,隨着我們現在過渡到H200和Blackwell,供不應求的情況可能會持續一段時間。每個人都渴望儘快上線他們的基礎設施。因爲這樣他們可以儘快節省金錢並賺錢。

高盛分析師託西亞·哈里(Toshiya Hari):我想問一下競爭。我知道你們的許多雲客戶已經宣佈新的或更新現有的內部程序,與你們的合作同步進行。在中長期,你們在多大程度上將他們視爲競爭對手?在你看來,他們主要是解決內部工作量,還是他們的作用可能更廣泛?

黃仁勳:我們與衆不同的幾個方面體現在以下幾點。首先,英偉達的加速計算架構使客戶能夠處理其流程中的每一個環節,從未結構化數據的處理準備培訓,到結構化數據處理、類似SQL的數據框處理,再到培訓和推理。正如我之前提到的,推理已經發生了根本性的變革,現在它轉變爲生成模式。它不僅僅是簡單地識別出貓——這本身就相當困難——而是需要生成貓的每一個像素。因此,生成過程是一種全新的處理架構。這也是TensorRT LLM非常受歡迎的原因之一。我們利用同樣的芯片,通過我們的架構使性能提高了三倍。這充分展示了我們架構和軟件的深度和強大。因此,從計算機視覺到圖像處理,從計算機圖形到各種計算形式,你都可以使用英偉達的技術。

正如世界正面臨的計算成本和能源通脹,通用計算已經達到了瓶頸,而加速計算確實是向前發展的可持續方式。加速計算是如何節省計算成本,如何節約能源的關鍵。因此,我們平臺的多功能性爲客戶的數據中心帶來了最低的總體擁有成本(TCO)。

其次,我們遍佈每一個雲平臺。因此,對於尋找開發平臺的開發者來說,選擇英偉達始終是一個絕佳的選擇。我們在本地、在雲端,無論是任何大小和形狀的計算機,我們幾乎無處不在。這是我們的第二個優勢。

第三個優勢與我們構建AI工廠的事實密切相關。人們越來越認識到,AI問題不僅僅是關於芯片的。當然,一切都始於優秀的芯片,我們爲我們的AI工廠製造了大量的芯片,但AI更是一個系統問題。事實上,AI現在已經是一個系統問題,不僅僅是一個大型語言模型,而是多個大型語言模型組成的複雜系統共同工作。因此,英偉達構建這種系統,使我們能夠優化我們所有的芯片以協同作爲一個系統運行,擁有能夠作爲一個系統操作的軟件,並能夠在整個系統中進行優化。

從一個簡單的數值角度來看,如果你有一個價值50億美元的基礎設施,當你將基礎設施的性能提高了兩倍(這是我們經常做的),它的價值也增加到了100億美元。所有這些芯片的成本並不足以支付它們。因此,它的價值是非常巨大的。這就是爲什麼今天性能至關重要的原因。在這樣一個最高性能也意味着最低成本的時代,因爲維持所有這些芯片的基礎設施成本非常高昂。需要大量資金來建設和運營數據中心,這還包括了人力、電力、房產等所有相關成本。因此,最高的性能也確保了最低的總體擁有成本(TCO)。

TDCowen分析師馬特·拉姆齊(Matt Ramsay):我的整個職業生涯都在數據中心行業度過,但我從未見過像英偉達推出新平臺的速度這樣快,而且你們的產品在性能上的飛躍尤爲顯著:訓練性能提升了5倍,推理性能更是提高了30倍,這無疑是令人矚目的成就,但同時也帶來了一個有趣的挑戰:你們的客戶所花費數十億美元購買的前一代產品,與你們的新產品相比,可能在競爭力上顯得遜色,且其折舊週期遠遠短於預期。面對這種情況,談談你是如何看的?當你們遷移到Blackwell等新一代產品時,你們將有龐大的安裝基礎,顯然在軟件兼容性上沒有問題,但大量已安裝產品的性能將遠遠不及新一代產品。我對此非常好奇,也期待聽聽你在這個過程中觀察到的變化。

黃仁勳:非常感謝你的提問,我很高興能夠分享我的觀點。我想強調三點。

首先,無論是在基礎設施建設初期(5%)還是接近完成(95%),你的感受都會大相徑庭。因爲目前只完成了5%,你需要儘快建設。當Blackwell產品推出時,將是一個巨大的飛躍。之後,隨着我們持續推出新的Blackwell產品,我們正處於每年更新一次的節奏。我們希望客戶能清楚地看到我們的發展藍圖,儘管他們的項目纔剛開始,但他們必須持續推進。因此,將會有大量新的芯片推出,他們需要不斷地構建,並通過提升性能來逐步達到標準。這是明智之舉。他們需要立即盈利並節約成本,時間對他們來說至關重要。

讓我舉一個例子來說明時間的重要性:爲什麼快速部署數據中心和縮短培訓時間如此關鍵。因爲下一家達到技術新高度的公司將會宣佈一項突破性的人工智能技術,而其後的公司可能只能宣佈略有改進的產品,提升幅度可能僅爲0.3%。因此,問題是,你想成爲一個屢創突破的公司,還是僅稍微領先一點的公司?這就是爲什麼在所有技術競賽中,競爭如此關鍵。你可以看到多家公司在此領域競爭,擁有技術領先地位至關重要,企業需要相信這一點並願意在你的平臺上進行長期建設,因爲他們知道這個平臺將變得越來越好。因此,領導地位非常重要,培訓時間也極爲關鍵。能夠提前三個月完成培訓,就意味着可以提前三個月開始項目,這一切都至關重要。

這就是爲什麼我們現在如此積極地部署Hopper系統,因爲下一個技術平臺即將到來。你提到的第一點評論非常棒,這正是我們如何能夠快速進步和快速發展的原因。我們擁有所有必要的技術堆棧。我們實際上構建了整個數據中心,能夠監控、測量並優化一切。我們知道瓶頸在哪裡,我們不是在做無的放矢的猜測,我們不僅僅是展示漂亮的幻燈片。我們也確實希望我們的幻燈片看起來不錯,但我們提供的是能夠大規模運行的系統。我們知道它們能在大規模中如何表現,因爲我們是在這裡構建它們的。我們所做的一件近乎奇蹟的事情是,我們在這裡構建了整個AI基礎設施,然後我們將其解構並整合到客戶的數據中心,無論他們選擇哪種方式。但我們知道它將如何運行,我們知道瓶頸在哪裡,我們知道我們需要在哪些地方與他們合作優化,我們知道我們需要在哪些方面幫助他們改善基礎設施以實現最佳性能。這種對整個數據中心規模的深入瞭解,是我們今天能夠區別於其他競爭對手的根本原因。我們從零開始構建每一個芯片,我們確切地知道整個系統是如何處理的。因此,我們非常清楚它將如何表現,以及如何在每一代產品中充分發揮其潛力。

所以我很感激。這就是我想分享的三點。

EvercoreISI分析師馬克·利帕西斯(Mark Lipacis):你曾經提過,通用計算生態系統往往在每個計算時代佔據主導地位,因爲通過適應不同的工作負載,這些系統能夠在計算需求下降時實現更高的利用率。這似乎是你推動建立基於CUDA的通用GPU生態系統,用於加速計算髮展的動機所在。現在,考慮到當前推動解決方案需求的主要工作負載正由神經網絡訓練和推理所驅動,從表面上看,這似乎是有限數量的工作負載。因此,一些人可能會認爲這更適合採用定製化的解決方案。然而,問題的關鍵在於:通用計算框架是否正面臨更大的挑戰,或者它們是否具備足夠的靈活性和發展速度,以在這些特定的工作負載上繼續發揮通用框架的歷史優勢?

黃仁勳:英偉達的加速計算雖具多功能性,但並不可視爲通用計算平臺。例如,我們並不擅長執行如電子表格這類典型的通用計算任務。操作系統代碼的控制循環對於通用計算而言可能尚可,但對於加速計算則可能不盡人意。因此,雖然我稱我們的平臺爲多功能,但這並不意味着它適用於所有場景。我們能夠加速衆多領域的應用,這些應用雖有深層差異,但更多地體現出共通性:它們均可並行處理,且高度線程化。例如,有5%的代碼可能佔據了運行時間的99%,這正是加速計算的特性所在。我們平臺的多功能性及我們的系統整體設計,使得在過去十年中,無數初創公司依靠我們的技術快速成長。這些公司的架構雖脆弱,但在面對生成式人工智能或融合模型等新興技術時,我們的系統能夠提供穩定支持。尤其是當出現需要進行持續對話和理解上下文的大型語言模型時,Grace的內存功能顯得尤爲關鍵。因此,在人工智能的各項進展中,我們強調不僅需要爲單一模型設計解決方案,更應提供能廣泛服務於整個領域的系統。我們遵循軟件的基本原則,認爲軟件將持續演進,變得更加完善和強大。我們堅信未來幾年內,這些模型的規模將擴大百萬倍。我們的平臺多功能性在此過程中發揮了關鍵作用,如果過於專一,我們可能只是在製作FPGA或ASIC,但這遠非完整的計算解決方案。

Jefferies分析師布萊恩·柯蒂斯(Blayne Curtis):我對你們爲中國市場特別推出的H20產品很感興趣。鑑於當前的供應限制,我很好奇你們如何平衡這款產品的需求與Hopper其他產品的供應。能否詳細闡述對下半年的展望,包括對銷售和毛利率的可能影響?

黃仁勳:關於你提到的H20以及不同Hopper產品之間的供應分配,我可能沒完全聽清你的問題。但我想說,我們尊重每一位客戶,並盡力爲他們提供最好的服務。確實,我們在中國的業務相較於過去有所下降,這主要是由於技術出口限制以及中國市場競爭的加劇所致。但請放心,我們仍會盡最大努力爲中國市場的客戶提供最好的服務。關於你提到的供應問題,我們的評論也適用於整個市場,特別是H200和Blackwell在年底時的供應情況。確實,這兩款產品的需求非常強勁。

Raymond James分析師斯里尼·帕傑裡(Srini Pajjuri): 我想更多瞭解下你剛纔提到的GB 200系統。目前看來,市場對這些系統有很大的需求。從歷史上看,英偉達已經賣出了大量的HGX和GPU,而系統業務則相對較小。所以我很好奇,爲什麼現在你預見對系統的需求如此強勁?這是否僅是因爲總體擁有成本(TCO)的考量,還是有其他因素,比如架構優勢?

黃仁勳:事實上,我們銷售GB 200的方式與我們解構產品的方式相同。我們將所有合理的組件分解並將它們集成到計算機制造商中。今年,我們將有100種不同的Blackwell計算機系統配置推向市場,這是前所未有的。Hopper在其高峰時期也只有一半的配置選項,最初的配置比這少得多。而Blackwell則提供了更多樣化的選擇。因此,您將看到液冷版、風冷版、x86版、Grace版等等。我們的夥伴也在提供這些多樣化的系統。沒有什麼真正改變的。當然,Blackwell平臺極大地擴展了我們的產品陣容。CPU的集成和更緊湊的計算密度,液冷將爲數據中心在供電方面節省大量成本,並提高能源效率。因此,這是一個更好的解決方案。它更具擴展性,這意味着我們爲數據中心提供了更多的組件。在這個過程中,每個人都是贏家。數據中心將獲得更高性能的網絡,從網絡交換機到網絡。當然,我們現在有網卡,我們有以太網,這樣我們就可以將NVIDIA AI帶給只知道如何操作以太網的大規模客戶,因爲他們擁有這樣的生態系統。因此,Blackwell更具擴展性,我們爲客戶提供了更多的東西。這一代的產品更爲豐富。

TruistSecurities分析師威廉·斯特恩(William Stein):儘管市場上已有性能良好的CPU可供數據中心使用,但你們基於Arm架構的Grace CPU提供了一些真正的優勢,使得這項技術值得交付給客戶,這些優勢可能與成本效益、功耗有關?抑或是Grace與Hopper、Grace與Blackwell之間的技術協同效應有關?你能否解釋一下,在客戶端是否也可能出現類似的動態?儘管市場上已經有很好的解決方案,比如英特爾和AMD都提供了卓越的X86產品,但在新興的人工智能工作負載方面,英偉達可能有某些獨特的優勢,這些優勢可能是其他公司難以匹敵的?

黃仁勳:你提到了一些非常好的理由。的確,對於許多應用來說,我們與x86合作伙伴的合作關係非常出色,我們一起構建了很多優秀的系統。但是,Grace允許我們做一些當前系統配置無法做到的事情。Grace和Hopper之間的內存系統是相干的,緊密連接的。把它們看作兩個獨立的芯片似乎不太恰當,因爲它們更像是一個超級芯片。兩者之間的連接接口的帶寬是每秒數TB,這是非常驚人的。Grace使用的是LPDDR內存,這是第一個數據中心級的低功耗內存。因此,我們在每個節點上都節省了大量電力。此外,由於我們現在可以創建整個系統的架構,我們可以創建一個具有非常龐大NV連接域的系統,這對下一代大語言模型的推理至關重要。

因此,你看到GB200有一個72節點的NVLink域,這就像是將72個Blackwell連接成一個巨大的GPU。因此,我們需要Grace和Blackwells緊密結合來實現。因此,有架構上的原因,有軟件編程的原因,還有系統層面的原因,這些都是我們構建它們的必要條件。因此,如果我們看到類似的機會,我們會探索它們。正如你在昨天的微軟發佈會上看到的那樣,微軟首席執行官薩提亞·納德拉(Satya Nadella)宣佈了下一代PC——Copilot+ PC,它在我們的RTX GPU上運行得非常好,這些GPU正在筆記本電腦上出貨。但它也很好地支持了ARM。因此,這爲系統創新甚至爲PC打開了大門。

Cantor Fitzgerald分析師C.J·繆斯(C.J. Muse):我想這是個比較長遠的問題。我知道Blackwell甚至還沒有推出產品,但很明顯,投資者總是有遠見的。在GPU和定製ASIC日益激烈的競爭中,你如何看待英偉達在未來十年中的創新步伐?過去十年,英偉達在CUDA、Varsity、Precision、Grace以及Connectivity等技術的推出令人印象深刻。未來10年,英偉達需要解決哪些挑戰?也許更重要的是,你今天願意與我們分享什麼?

黃仁勳:對於未來,我可以自豪地告訴你們,在Blackwell之後,我們還將推出一款全新的芯片。我們處於每年更新一次的節奏,因此您可以期待我們將以極快的速度推出新的網絡技術。我們最近推出了面向以太網的Spectrum-X,但我們對以太網的規劃遠不止於此,它充滿了充滿激情的潛力。我們有一個強大的合作伙伴生態系統,例如,戴爾宣佈將Spectrum-X推向市場。我們的客戶和合作夥伴將不斷推出基於英偉達AI工廠架構的新產品。對於那些追求極致性能的公司,我們提供了InfiniBand計算結構,它是一個經過多年發展變得越來越優秀的網絡解決方案。而作爲基礎網絡的以太網,通過Spectrum-X,我們將使其具備更強的計算能力。

我們全力投入於這三條路徑的發展:NVLink計算結構用於單一計算域,InfiniBand計算結構,以及以太網網絡計算結構。我們將以驚人的速度推進這三個方向的發展。您很快就會看到新的交換機、新的網卡、新功能以及在這些設備上運行的新軟件棧涌現出來。新的CPU、GPU、網絡網卡、交換機等一系列芯片即將推出。

而最令人振奮的是,所有這些產品都將支持CUDA,並且都將兼容我們的整個軟件堆棧。這意味着,如果您今天投資於我們的軟件堆棧,您永遠不需要擔心它會過時或落後,因爲它將不斷進化,變得更快、更強大。如果您今天選擇採用我們的架構,那麼隨着它逐步進入更多的雲和數據中心,您將能夠無縫地繼續運行您的業務。

我認爲,英偉達帶來的創新將不斷提升我們的能力,並降低總體擁有成本(TCO)。我們有信心,通過英偉達的架構,我們將能夠引領這個新的計算時代,開啓這場新的工業革命。我們不再只是生產軟件,我們正在大規模製造人工智能Token。(小小)