英偉達敘事2025第一季:“DeepSeek有沒有創造AI產業需求?”

1. 最近美股上漲和下跌的壓力,全給到了英偉達。

2. 今年初出版的《錢從哪裡來6:敘事之年》第1章中聊到的,如今美股最重要的價格驅動力來自“AI敘事”。在這個敘事既不能證僞且不能被證僞的時間內,英偉達這種超級節點的表現和黃仁勳這種“超級傳播者”的表述會對價格產生重大的影響。

換句話說,在相當長的一段時間內,(1)英偉達的財報;以及(2)黃仁勳這個超級傳播者的願景和表達將是美股短期定價的中樞神經之一。

3. 這一季的英偉達AI敘事的核心關鍵在於迴應“DeepSeek衝擊”。

1月27號中國的DeepSeek橫空出世當日,英偉達及全球AI概念股大跌,英偉達暴跌17%,市值蒸發了近6000億美元。雖然後來收復了大半,但市場對DeepSeek帶來的衝擊並不確定。所以這次財報發佈會集中在迴應這個關切。集中在回答這個疑問上:

4. 英偉達敘事第一問:DeepSeek能否創造新需求?

黃教主給出的答案是肯定的。用詞也很強烈,叫做“(Blackwell的需求勢頭)非比尋常”。原因是DeepSeek-R1這樣開源的推理AI模型,給了AI應用開發以更廣闊的空間,也會消耗更多計算量。

從基礎設施和資本支出的長期角度,黃教主勾勒了一個宏大圖景:現在軟件已經從在CPU上運行的手工編碼,轉變爲在GPU和加速計算系統上運行的基於機器學習和AI的軟件。AI將成爲數據中心的主要工作者,所以數據中心的資本投資需求將大增。

5.英偉達敘事第二問:短期財務指標能否表現良好?是否受關稅影響?

答案是“中規中矩”。

英偉達第四財季實現營收393.31億美元,同比增長78%,增速放緩。其中,數據中心收入增長93%。這倆個關鍵增速,均爲近兩年最低增速,但高於華爾街分析師預期。

第四財季淨利潤220.66億美元,同比上升72%。但瑕疵是73%的毛利率,環比和同比都有微小的下調(上一季度74.6%,去年同期76%)。但首席財務官Colette Kress的意思,是有希望提高。Blackwell已經全面推廣,一旦Blackwell全面推廣,就可以降低成本並提高毛利率。Blackwell系統材料成本下降,也有助於隨着時間推移更好地提高毛利率。

至於關稅的影響,簡而言之,未知。

6.英偉達AI敘事第三問:原來老設備經濟價值折舊怎樣?產業的設備更新需求咋樣?

在對另一個問題的回答中,黃教主提到如果數據中心是固定的,性能的提升可以直接轉化爲收入。英偉達的每瓦性能可能是2倍到4倍甚至8倍,這意味着在相同功耗下,吞吐量更高,收入也更高。

這算隱晦的暗示了大量的更新需求。但無論如何,這是個敏感問題——更新需求如果大,很可能是因爲客戶原來買的芯片計算性能大幅下滑。所以教主也模糊的回答說——人們仍在使用Voltas和Pascals和Amperes(以前的芯片)。如果你有已經部署的基礎設施,那麼你可以將不太密集的工作負載放在過去的安裝基礎上。

一句話,喜新不厭舊。

7.整體上,我覺得這次敘事偏積極,雖然不是狂野的積極。可能華爾街習慣了狂野的敘事,又或者是最近市場情緒有點低迷,當天盤後下跌0.75%,27日更是大跌8.48%。

8. 段永平開始買入英偉達了。但估計不多。他說,“儘管沒完全看懂,但準備sell put一點NVIDIA,英偉達其實是個很不錯的公司”。

「 想了解更多美股解讀,

敬請關注2025香帥線下課」

附錄:英偉達財報會全文

1. 披露陳述環節

Colette Kress,執行副總裁兼首席財務官:

第四季度又是一個創紀錄的季度。收入爲393億美元,環比增長12%,同比增長78%,超出我們預期的375億美元。2025財年收入爲1305億美元,較上一財年增長114%。讓我們先從數據中心說起。2025財年的數據中心收入爲1152億美元,較上一財年翻了一番。在第四季度,數據中心收入達到創紀錄的356億美元,環比增長16%,同比增長93%。隨着Blackwell的推出以及Hopper 200的持續增長,第四季度Blackwell的銷售額超出了我們的預期。我們實現了110億美元的Blackwell收入,以滿足強勁的需求。

這是我們公司歷史上最快的產品推廣,其速度和規模都是前所未有的。Blackwell的生產正在全面展開,涵蓋多種配置,我們正在迅速增加供應,擴大客戶採用。我們的第四季度數據中心計算收入環比增長18%,同比增長超過兩倍。客戶們競相擴大基礎設施,以訓練下一代尖端模型,並解鎖下一層次的AI能力。

憑藉Blackwell,這些集羣從擁有10萬個或更多的GPU開始將變得很常見。已經有多套這種規模的基礎設施開始出貨。訓練後的模型定製和微調正在推動對英偉達基礎設施和軟件的需求,因爲開發者和企業利用微調、強化學習和蒸餾等技術,針對特定領域的用例定製模型。僅Hugging Face就託管了超過9萬個由Llama基礎模型衍生出的版本。

訓練後的模型定製和微調的規模是巨大的,其總體計算需求可能比預訓練高出幾個數量級。我們的推理需求正在加速增長,受到測試時擴展和新的推理模型(如OpenAI的o3、DeepSeek-R1和Grok 3)的推動。長思考推理AI可能需要比一次性推理多100倍的計算量。Blackwell是爲推理AI推理而設計的。與Hopper 100相比,Blackwell可以將推理AI模型的吞吐量提高高達25倍,成本降低20倍。它具有革命性。Transformer Engine是爲LLM和專家混合推理而構建的。其NVLink域提供了比PCIe Gen5高出14倍的吞吐量,確保了響應時間、吞吐量和成本效率,以應對日益複雜的推理規模。

各行各業的公司都在利用英偉達的全棧推理平臺來提升性能並削減成本。NAP利用英偉達TensorRT將其截圖功能的推理吞吐量提升了三倍,並削減了66%的成本。Perplexity每月處理4.35億次查詢,並通過英偉達Triton推理服務器和TensorRT LLM將推理成本降低了三倍。微軟必應利用英偉達TensorRT和加速庫,在數十億張圖片的視覺搜索中實現了5倍的速度提升和重大的總擁有成本(TCO)節省。Blackwell在推理方面有着巨大的需求。許多早期的GB200部署都被指定用於推理,這在新架構中尚屬首次。Blackwell涵蓋了從預訓練、訓練後到推理的整個AI市場,從雲端到本地,再到企業級應用。CUDA的可編程架構加速了每一個AI模型以及超過4400個應用,確保了在快速發展的市場中對大型基礎設施投資的保護,使其免受過時的影響。我們的性能和創新速度無與倫比。

我們致力於在短短兩年內將推理成本降低200倍。我們提供了最低的總擁有成本(TCO)和最高的投資回報率(ROI),以及針對英偉達和我們龐大的生態系統(包括590萬開發者)的全棧優化,這些開發者不斷改進我們客戶的經濟效益。在第四季度,大型雲服務提供商(CSP)約佔我們數據中心收入的一半,這些銷售額同比增長了近兩倍。大型CSP是首批部署Blackwell的公司之一,Azure、GCP、AWS和OCI在全球範圍內將GB200系統引入雲區域,以滿足客戶對AI的激增需求。

託管NVIDIA GPU的區域雲在全球數據中心收入中的佔比上升,反映了全球範圍內AI工廠建設的持續進行以及對AI推理模型和代理需求的迅速增長。當然,我們已經推出了基於100,000個GB200集羣的實例,配備了NVLink交換機和Quantum-2 InfiniBand。消費者互聯網收入同比增長了3倍,這得益於生成式AI和深度學習用例的不斷擴大,包括推薦系統、視覺語言理解、合成數據生成搜索以及代理AI等。例如,XAI正在採用GB200來訓練和推理其下一代Grog AI模型。Meta的尖端Andromeda廣告引擎運行在NVIDIA的Grace Hopper超級芯片上,在Instagram、Facebook等應用中投放大量廣告。Andromeda利用Grace Hopper的快速互聯和大內存,將推理吞吐量提升了3倍,增強了廣告個性化,並實現了顯著的貨幣化和投資回報率(ROI)增長。

企業收入同比增長了近兩倍,這得益於對模型微調、RAG和代理AI工作流程以及GPU加速數據處理的加速需求。我們推出了NVIDIA Llama Nemotron模型家族NIMs,以幫助開發者在包括客戶支持、欺詐檢測以及產品供應鏈和庫存管理等一系列應用中創建和部署AI代理。領先的AI代理平臺提供商,包括SAP和服務Now,是首批採用新模型的公司之一。

醫療保健領域的領導者IQVIA、Illumina和Mayo Clinic以及Arc Institute正在利用NVIDIA AI加速藥物發現、增強基因組研究,並藉助生成式和代理AI開創先進的醫療服務。隨着AI從數字世界擴展到物理世界,NVIDIA的基礎設施和軟件平臺越來越多地被採用,以推動機器人技術和物理AI的發展。在機器人技術和自動駕駛汽車領域是最早期也是最大的應用之一,幾乎每一家自動駕駛汽車公司都在數據中心、汽車或兩者中開發NVIDIA技術。

NVIDIA的汽車垂直業務收入預計在本財年將達到約50億美元。在CES上,現代汽車集團宣佈將採用NVIDIA技術來加速自動駕駛汽車和機器人技術的發展以及智能工廠計劃。視覺變換器、自監督學習、多模態傳感器融合以及高保真模擬正在推動自動駕駛汽車的發展,並將需要10倍以上的計算能力。在CES上,我們宣佈了NVIDIA Cosmos World Foundation Model Platform。正如語言基礎模型徹底改變了語言AI一樣,Cosmos是一種物理AI,旨在徹底改變機器人技術。領先的機器人和汽車公司,包括共享出行巨頭Uber,是首批採用該平臺的公司之一。

從地域角度來看,由於Blackwell的初步推廣,美國的數據中心收入環比增長最爲強勁。全球各國都在構建自己的AI生態系統,對計算基礎設施的需求激增。法國的2000億歐元AI投資和歐盟的2000億歐元AI計劃僅是未來幾年重新定義全球AI基礎設施建設的一個縮影。

就數據中心收入的佔比而言,中國數據中心的銷售額仍遠低於出口管制開始時的水平。在沒有法規變化的情況下,我們預計中國的出貨量將保持在當前的水平。中國市場的數據中心解決方案競爭非常激烈。我們將繼續遵守出口管制規定,同時爲我們的客戶服務。

網絡收入環比下降了3%。我們連接到GPU計算系統的網絡非常強大,超過75%。我們正在從小型NVLink 8與InfiniBand轉向大型NVLink 72與Spectrum X。Spectrum X和NVLink交換機的收入增加,代表了一個重要的新增長領域。我們預計網絡將在第一季度恢復增長。

AI需要一個新的網絡類別。NVIDIA提供NVLink交換機系統用於向上擴展計算。對於向外擴展,我們提供Quantum和InfiniBand用於HPC超級計算機,以及Spectrum X用於以太網環境。Spectrum X增強了AI計算的以太網,並取得了巨大成功。微軟Azure、OCI、CoreWeave等公司正在使用Spectrum X構建大型AI工廠。第一個Stargate數據中心將使用Spectrum X。昨天,思科宣佈將Spectrum X集成到其網絡產品組合中,以幫助企業構建AI基礎設施。憑藉其龐大的企業客戶羣和全球影響力,思科將把NVIDIA以太網帶到每個行業。現在轉向遊戲和AI PC。遊戲收入爲25億美元,環比下降22%,同比下降11%。全年收入爲114億美元,同比增長9%,整個假日期間需求依然強勁。然而,第四季度的出貨量受到了供應限制的影響。我們預計隨着供應的增加,第一季度將實現強勁的環比增長。新的GeForce RTX 50系列桌面和筆記本GPU已經問世。它們專爲遊戲玩家、創作者和開發者設計,融合了AI和圖形技術,重新定義了視覺計算。由Blackwell架構提供支持,第五代Tensor核心和第四代RT核心,以及高達3400個AI POPs。這些GPU實現了2倍的性能飛躍,並引入了新的AI驅動渲染技術,包括神經着色器、數字人類技術、幾何和光照。新的VLSS4技術通過AI驅動的幀生成將幀率提升至8倍,將一個渲染幀轉換爲三個。它還首次在行業中實時應用了Transformer模型,擁有2倍的參數和4倍的計算能力,爲無與倫比的視覺保真度提供了支持。我們還宣佈了一系列配備新NVIDIA Max-Q技術的GeForce Blackwell筆記本GPU,該技術可將電池續航時間延長高達驚人的40%。這些筆記本將從3月開始由全球頂級製造商推出。接下來是我們的專業可視化業務。收入爲5.11億美元,環比增長5%,同比增長10%。全年收入爲19億美元,同比增長21%。推動需求的關鍵行業垂直領域包括汽車和醫療保健。NVIDIA技術和生成式AI正在重塑設計、工程和模擬工作負載。越來越多的領先軟件平臺,如Ansys、Cadence和西門子,正在利用這些技術,推動了對NVIDIA RTX工作站的需求。現在轉向汽車業務。收入創下5.7億美元的紀錄,環比增長27%,同比增長103%。全年收入爲17億美元,同比增長55%。強勁增長得益於自動駕駛汽車(包括汽車和機器人出租車)的持續增長。在CES上,我們宣佈豐田,全球最大的汽車製造商,將在其下一代汽車中採用NVIDIA Orin,並運行經過安全認證的NVIDIA DRIVE OS。我們宣佈Aurora和Continental將大規模部署無人駕駛卡車,由NVIDIA DRIVE 4提供動力。最後,我們的端到端自動駕駛汽車平臺NVIDIA DRIVE Hyperion已通過Su-Su和Su-Ryland的行業安全評估,這兩家是汽車級安全和網絡安全領域的權威機構。NVIDIA是首個獲得全面第三方評估的自動駕駛汽車平臺。

好的,接下來是損益表的其餘部分。GAAP毛利率爲73%,非GAAP毛利率爲73.5%,隨着我們首次交付Blackwell架構,環比下降,正如預期的那樣。正如上季度所討論的,Blackwell是一種可定製的AI基礎設施,擁有多種類型的NVIDIA製造芯片、多種網絡選項,以及適用於空氣和液體冷卻數據中心的配置。我們在第四季度超出預期地推廣了Blackwell,增加了系統可用性,併爲我們的客戶提供了多種配置。隨着Blackwell的推廣,我們預計毛利率將在70年代初。最初,我們專注於加快Blackwell系統的製造,以滿足客戶對構建Blackwell基礎設施的強烈需求。當Blackwell全面推廣時,我們有許多機會降低成本,毛利率將得到改善,並將在本財年晚些時候恢復到70年代中期。環比來看,GAAP運營費用增長了9%,非GAAP運營費用增長了11%,這反映了新產品推出所帶來的更高的工程開發成本以及更高的計算和基礎設施成本。在第四季度,我們通過股票回購和現金股息的形式向股東返還了81億美元。

讓我轉向第一季度的展望。預計資本收入爲430億美元,上下浮動2%。隨着強勁需求的持續,我們預計Blackwell將在第一季度實現顯著增長。我們預計數據中心和遊戲業務都將實現環比增長。在數據中心內,我們預計計算和網絡都將實現環比增長。GAAP和非GAAP毛利率預計分別爲70.6%和71%,上下浮動50個基點。GAAP和非GAAP運營費用預計分別約爲52億美元和36億美元。我們預計2026財年全年的運營費用將增長至中等30%水平。GAAP和非GAAP其他收入和費用預計約爲4億美元的收入,不包括非上市和上市股權證券的收益和損失。GAAP和非GAAP稅率預計爲17%,上下浮動1%,不包括任何一次性項目。更多的財務細節包含在首席財務官評論和其他信息中,這些信息可在我們的投資者關係網站上找到,包括一個新的財務信息AI代理。在結束語中,讓我強調一下即將舉行的金融界活動。

我們將在3月3日參加波士頓的TD Cowen醫療保健會議,以及3月5日在舊金山舉行的摩根士丹利科技、媒體和電信會議。請加入我們在3月17日星期一開始的年度GTC會議,地點在加利福尼亞州聖何塞。Jensen將在3月18日發表新聞豐富的主題演講,並且我們將在3月19日爲我們的金融分析師舉辦問答環節。我們期待在這些活動中見到您。

我們討論2026財年第一季度結果的財報電話會議安排在2025年5月28日。我們將把電話交給運營商,開始提問。如果您可以開始的話,那將很好。

2. 問答環節

主持人:謝謝。接下來的問題來自Cantor Fitzgerald的CJ Muse。請繼續。

CJ Muse:是的,下午好。感謝您接受我的提問。

我想問的是,Jensen,隨着TEFCON計算和強化學習展現出如此巨大的潛力,我們明顯看到了訓練和推理之間的界限越來越模糊。這對可能專門用於推理的集羣的未來發展意味着什麼?您認爲這對英偉達及其客戶會產生怎樣的整體影響?謝謝。

Jensen Huang,創始人、總裁兼首席執行官:

是的,我感謝你。現在存在多種擴展定律。首先是預訓練擴展定律。

而且這將繼續擴展,因爲我們有多模態。我們有來自推理的數據,這些數據現在被用於預訓練。然後第二部分是使用強化學習、人類反饋、強化學習AI反饋、強化學習可驗證獎勵的訓練後擴展定律。實際上,用於訓練後的計算量比預訓練更高。

這在某種程度上是合理的,因爲你可以在使用強化學習時生成大量的合成數據或合成生成的標記。AI模型基本上是在生成標記來訓練AI模型。這就是訓練後。第三部分,也就是你提到的部分,是測試時計算或推理、長思考、推理擴展。

它們基本上是相同的概念。在那裡,你有思考鏈,你有搜索。已經生成的標記數量,所需的推理計算量已經比最初大型語言模型的一次性示例和一次性能力高出一百倍。而這僅僅是開始。

這只是個開始。下一個想法是,下一代可能會有成千上萬倍甚至更多倍的推理量,而且我們希望未來的模型能夠進行極其深入的思考,基於模擬和搜索的模型可能會比今天高出幾十萬倍甚至幾百萬倍。所以,問題來了,你該如何設計這樣的架構?有些模型是自迴歸的。有些模型是基於擴散的。

有時你希望你的數據中心能夠進行分散的推理。有時它是緊湊的。因此,很難確定數據中心的最佳配置,這也是爲什麼NVIDIA的架構如此受歡迎的原因。我們運行每一種模型。

我們在訓練方面表現出色。我們今天的大部分計算實際上都是推理。而Blackwell將這一切提升到了一個新的水平。我們在設計Blackwell時考慮了推理模型。

當你查看訓練時,它的性能要高出許多倍。但真正令人驚歎的是,對於長思考、測試時擴展、推理AI模型,它們的速度要快上十倍,25倍的更高吞吐量。所以,Blackwell在各個方面都將表現出色。當你擁有一個可以根據你是在進行更多的預訓練、訓練後還是擴展你的推理來配置和使用你的數據中心時,我們的架構是通用的,並且在所有這些不同的方式中都很容易使用。實際上,我們看到的是一種比以往任何時候都更加集中的統一架構。

主持人:下一個問題來自摩根大通的Joe Moore。請繼續。

Joe Moore:實際上我是來自摩根士丹利,謝謝。

我想知道關於GB200在CES的情況。你在準備發言中提到了機架級系統的複雜性以及你們面臨的挑戰。然後,正如你所說,我們已經看到了很多普遍可用性的情況,那麼你在推廣方面處於什麼位置?在系統層面,除了芯片層面之外,是否還有瓶頸需要考慮?還有,你對NGL72平臺的熱情是否有所改變?

未具名發言人:

嗯,我今天比在CES時更有熱情了。原因是我們自CES以來已經出貨了很多。我們有350家工廠生產每個Blackwell機架所需的150萬個組件。是的,這極其複雜,我們成功且令人難以置信地提升了Grace Blackwell的產能,上個季度實現了110億美元的收入。我們將不得不繼續擴大規模,因爲需求相當高,客戶們急切且不耐煩地想要得到他們的Blackwell系統。

你可能已經在網絡上看到了相當多關於Grace Blackwell系統上線的慶祝活動。當然,我們也有。我們自己爲工程團隊、設計團隊和軟件團隊安裝了相當數量的Grace Blackwells。

CoreWeave已經公開宣佈了他們系統的成功啓動。微軟也已經宣佈了。當然,OpenAI也已經宣佈了,你開始看到許多系統上線了。我想回答你的問題是,我們正在做的事情沒有什麼是容易的,但我們做得很好,我們所有的合作伙伴也都做得很好。

主持人:下一個問題來自美國銀行證券的Vivek Arya。請繼續。

Vivek Arya:

謝謝您接受我的提問。我只是想知道您是否不介意確認一下第一季度是否是毛利率的底部。然後,Jensen,我的問題是,您的儀表盤上有什麼能給您信心,讓這種強勁的需求持續到明年,DeepSeek以及他們帶來的任何創新,是否在任何方面改變了這種看法?謝謝。

Colette Kress,執行副總裁兼首席財務官:

讓我先回答關於毛利率的第一個問題。在我們的Blackwell推廣期間,我們的毛利率將在70年代初。目前,我們專注於加快我們的製造,以確保我們能夠儘快爲客戶提供產品。

我們的Blackwell已經全面推廣,一旦我們的Blackwell全面推廣,我們可以降低成本並提高我們的毛利率。因此,我們預計可能在年底前達到70年代中期。正如你聽到Jensen談到的系統和它們的複雜性。它們是可定製的,在某些情況下。它們有多種網絡選項。它們有液體冷卻和水冷。因此,我們知道我們有機會在未來提高這些毛利率。但目前,我們將專注於完成製造並儘快將產品交給我們的客戶。

Jensen Huang,創始人、總裁兼首席執行官:

我們知道幾件事情,Vivek。我們對數據中心正在建設的資本投資有相當清晰的瞭解。我們知道,從現在起,大多數軟件將基於機器學習。因此,加速計算和生成式AI、推理AI將是您數據中心想要的架構類型。

當然,我們有來自頂級合作伙伴的預測和計劃。我們還知道,有許多創新的、令人興奮的初創公司仍在不斷涌現,作爲開發下一代AI突破的新機會,無論是代理AI、推理AI還是物理AI。初創公司的數量仍然相當活躍,每個初創公司都需要相當數量的計算基礎設施。因此,我認爲無論是短期信號還是中期信號,短期信號當然是採購訂單和預測等,中期信號將是基礎設施和資本支出的規模與以往相比。

然後長期信號與這樣一個事實有關,即我們知道從根本上說,軟件已經從在CPU上運行的手工編碼轉變爲在GPU和加速計算系統上運行的基於機器學習和AI的軟件。因此,我們相當清楚地知道,這將是軟件的未來,也許另一種思考方式是,我們真的只觸及了消費者AI和搜索以及一些消費者生成式AI、廣告、推薦系統的早期階段。下一波浪潮即將到來,企業代理AI、機器人物理AI以及不同地區爲自己的生態系統構建主權AI。所有這些纔剛剛開始,我們能夠看到它們。

我們能夠看到它們,因爲顯然我們處於這些發展的中心,我們可以看到在所有這些不同地方發生的大量活動,這些活動將會發生。因此,無論是短期、中期還是長期信號,我們都有相當清晰的瞭解。

主持人:下一個問題來自摩根士丹利的Harlan Sur。請繼續。

Harlan Sur:

是的,下午好。感謝您接受我的提問。您的下一代Blackwell Ultra計劃在下半年推出,符合團隊的年度產品節奏。Jensen,鑑於您仍在推廣當前一代的Blackwell解決方案,能否請您幫助我們理解Ultra的需求動態?您的客戶和供應鏈如何同時管理這兩種產品的推廣,團隊是否仍按計劃在下半年執行Blackwell Ultra的推出?

Jensen Huang,創始人、總裁兼首席執行官:

是的。

Blackwell Ultra將在下半年推出,正如您所知,第一代Blackwell出現了一些小問題,可能使我們耽誤了兩個月。當然,我們已經完全恢復了。團隊出色地完成了恢復工作,我們的所有供應鏈合作伙伴以及如此多的人幫助我們以光速恢復。因此,我們現在成功地提升了Blackwell的產能。但那並沒有阻止下一趟列車。下一趟列車遵循年度節奏,Blackwell Ultra將配備新的網絡、新的內存,當然還有新的處理器等,所有這些都將上線。我們已經與所有合作伙伴和客戶合作,進行了規劃。

他們擁有所有必要的信息。我們將與每個人合作進行適當的過渡。這一次,Blackwell和Blackwell Ultra之間的系統架構完全相同。從Hopper到Blackwell的過渡要困難得多,因爲我們從基於NVLink 8的系統轉向了基於NVLink 72的系統。因此,機箱、系統架構、硬件、電源傳輸等所有內容都必須改變。這是一個相當具有挑戰性的過渡。但下一次過渡將無縫對接。Blackwell Ultra將無縫對接。

我們還已經透露並與所有合作伙伴密切合作,爲緊隨其後的過渡做準備。緊隨其後的過渡被稱爲Vera Rubin。我們的所有合作伙伴都在跟上這個過渡的步伐。因此,我們正在爲這個過渡做準備,再次強調,我們將帶來一個巨大的飛躍。

所以請來GTC,我會和你談談Blackwell Ultra、Vera Rubin,然後展示緊隨其後的那一個。非常令人興奮的新產品。所以請來GTC。

主持人:下一個問題來自瑞銀的Timothy Arcuri。請繼續。

Timothy Arcuri:

非常感謝。Jensen,我們經常聽到關於定製ASIC的事情。你能談談定製ASIC與商用GPU之間的平衡嗎?我們聽說有些異構超級集羣同時使用GPU和ASIC。這是客戶正在計劃構建的東西嗎,還是這些基礎設施將保持相對獨立?謝謝。

Jensen Huang,創始人、總裁兼首席執行官:

嗯,我們構建的東西與ASIC非常不同。

在某些方面,我們完全不一樣,在某些領域我們有交集。我們在幾個方面有所不同。NVIDIA的架構是通用的。無論你是否針對自迴歸模型、基於擴散的模型、基於視覺的模型、多模態模型或基於文本的模型進行了優化,我們都很擅長。我們擅長這一切,因爲我們靈活的架構和豐富的軟件堆棧生態系統,我們是大多數令人興奮的創新和算法的首選目標。因此,根據定義,我們比狹窄的ASIC要通用得多。我們還真的從頭到尾都很擅長,從數據處理、訓練數據的策劃,到訓練數據,當然還有用於訓練後的強化學習,一直到測試時擴展的推理。因此,我們是通用的,我們是端到端的,我們無處不在。而且因爲我們的架構不僅僅在一個雲中,我們可以在任何雲中,在本地,我們可以在機器人中。我們的架構比僅僅一個雲要通用得多,它是一個偉大的目標,是任何開始新公司的首選目標。因此,我們無處不在。然後我想說的第三件事是,我們的性能和我們的節奏是如此令人難以置信的快。

請記住,這些數據中心總是固定大小的。它們是固定大小的,或者是固定功率的。如果我們的性能每瓦特是2倍到4倍到8倍,這並不罕見,這將直接轉化爲收入。因此,如果你有一個100兆瓦的數據中心,如果100兆瓦或吉瓦數據中心的性能或吞吐量是4倍或8倍更高,那麼那個吉瓦數據中心的收入就是8倍更高。這個原因與過去的數據中心不同,因爲AI工廠是直接可貨幣化的,通過其生成的token。因此,我們架構的token吞吐量如此之快,這對於所有爲收入生成目的而構建這些系統的公司來說,以及捕捉快速的投資回報率(ROI)來說,是非常有價值的。所以,我認爲第三個原因是性能。然後,我想說的是,軟件堆棧是非常複雜的。構建ASIC並不比我們所做的簡單。我們不得不構建新的架構,而構建在我們架構之上的生態系統比兩年前複雜了10倍。這很明顯,因爲世界上構建在我們架構之上的軟件數量呈指數級增長,AI也在迅速發展。所以,將整個生態系統構建在多個芯片之上是困難的。

所以,我想說的是,有這四個原因,然後最後,我想說的是,僅僅因爲芯片被設計出來並不意味着它會被部署。你已經多次看到這種情況了,有很多芯片被廢棄。但當部署的時候,需要做出商業決策。這個商業決策是關於在有限的AI工廠中部署一個新的引擎,一個新的處理器,這個工廠在大小、功率和時間上都是有限的。我們的技術不僅更先進、性能更好,它還具有更好的軟件能力,非常重要的是,我們的部署能力非常快。所以,這些事情都不是容易的,正如每個人現在所知道的那樣。所以,有很多不同的原因,爲什麼我們做得很好,爲什麼我們能夠勝出。

主持人:下一個問題來自Melius Research的Ben Reitz。請繼續。

Ben Reitz:

是的。嗨,我是Ben Reitz。嘿,謝謝您接受我的提問。嘿,Jensen,這是一個與地理相關的提問。您非常出色地解釋了一些支撐需求的潛在因素。但是美國環比增長了大約50億美元左右,我認爲,存在對於美國是否能夠在其他地區面臨法規限制時彌補缺口的擔憂。我只是想知道,隨着我們度過這一年,如果美國的這種增長持續下去,這是否合適,以及這是否支撐了您的增長率,您如何能夠以如此快的速度增長,儘管存在這種向美國的混合轉變?您的指導似乎表明中國可能會環比增長,所以我想知道您能否闡述一下這種動態,並可能權衡一下。謝謝。

Jensen Huang,創始人、總裁兼首席執行官:

中國的比例大約與第四季度以及之前的季度相同。大約是出口管制之前的那一半。

但它的比例大約是相同的。關於地理區域,關鍵要點是AI是軟件。它是現代軟件。它是令人難以置信的現代軟件,但它是軟件。而且AI已經主流化了。AI被用於每一個消費者服務中。如果你要買一品脫牛奶,它是由AI交付給你的。所以,幾乎每個消費者服務都以AI爲核心。每個學生都將使用AI作爲導師。醫療服務使用AI,金融服務使用AI。沒有金融科技公司會不使用AI。每個金融科技公司都會。氣候科技公司使用AI。礦物勘探現在使用AI。每個高等教育機構,每個大學都使用AI。所以,我認爲相當安全地說,AI已經主流化了,它已經被整合到了每一個應用中。我們的希望是,當然,這項技術能夠安全地、有益地推進社會。

然後,最後一點,我認爲我們正處於這個新時代的開始。我所說的“開始”,是指在我們身後的是數十年來構建的數據中心和計算機,它們是爲手工編碼和通用計算以及CPU等構建的。展望未來,我認爲相當安全地說,未來的世界將是幾乎所有軟件都將融入AI。所有軟件和所有服務最終都將基於機器學習。數據飛輪將成爲改進軟件和服務的一部分。

未來的計算機將是加速的。未來的計算機將基於AI。我們真的只是在這個旅程中走了幾年。在現代化那些已經花費了數十年構建的計算機。所以,我相當確定我們正處於這個新時代的開始。

然後,最後一點,沒有技術曾經有過機會去解決世界上更大一部分的GDP,就像AI一樣。沒有任何軟件工具曾經有過。所以,這是一個現在可以解決世界上更大一部分GDP的軟件工具,比歷史上任何時候都要多。所以,我們思考增長的方式,以及我們思考某件事情是大還是小的方式,必須是在這個背景之下的。當你退後一步,從這個角度來看待它時,我們真的只是處於這個新時代的開始。

主持人:下一個問題來自富國銀行的Aaron Rakers。請繼續。Aaron,您的線路已開啓。下一個問題來自Evercore ISI的Mark Lipacis。請繼續。

Mark Lipacis:

嗨,我是Mark Lipacis。謝謝您接受我的提問。我有一個澄清的問題和一個問題。

Colette,關於澄清的問題,您是否說過企業在數據中心在1月份的季度同比增長了2倍?如果是這樣,這是否意味着它的增長速度比超大規模雲服務提供商(CSP)更快?然後,Jensen,我的問題是,超大規模雲服務提供商是您解決方案的最大購買者,但他們購買的設備既用於內部工作負載,也用於外部工作負載,外部工作負載即企業使用的雲服務。

所以,問題是,您能否給我們一個關於超大規模雲服務提供商在內部工作負載和外部工作負載之間的支出分配的大致情況?隨着這些新的AI工作負載和應用的出現,您是否期望企業將成爲消費組合中更大的一部分?這是否會影響您開發服務和生態系統的方式?謝謝。

Colette Kress,執行副總裁兼首席財務官:

當然,感謝您關於我們的企業業務的問題。是的,它增長了2倍,非常類似於我們所看到的大型雲服務提供商的情況。請記住,這兩個領域都很重要。

與雲服務提供商合作可以進行大型語言模型的工作,也可以進行他們自己的推理工作,但請記住,這也是企業出現的地方。所以,您的企業既與您的雲服務提供商合作,也在構建自己的系統。它們都在,正確,增長得相當好。

Jensen Huang,創始人、總裁兼首席執行官:

雲服務提供商約佔我們業務的一半。

雲服務提供商既有內部消費,也有外部消費,正如你所說的。當然,我們與他們密切合作,優化內部工作負載,因爲他們擁有大量的NVIDIA設備,他們可以利用這些設備。而且,由於我們可以在一方面用於AI,另一方面用於視頻處理,還可以用於像Spark這樣的數據處理,我們是通用的。

因此,如果我們的設備的使用壽命更長,那麼總擁有成本(TCO)也會更低。那麼,第二個問題是,我們如何看待非雲服務提供商(CSP)的企業未來的增長?答案是,我認爲從長期來看,企業部分將佔據更大的份額。原因如下:

如果你看看今天的計算機行業,以及計算機行業尚未服務的部分,主要是工業。所以,讓我舉個例子。當我們說企業時,以汽車公司爲例,因爲他們既製造軟件產品,也製造硬件產品。所以,在汽車公司的例子中,員工將是我們所說的企業部分,代理AI和軟件規劃系統和工具,我們有一些非常令人興奮的東西將在GTC上與大家分享,這些代理系統是爲了提高員工的生產力,用於設計、營銷、規劃和運營公司。這些是代理AI。另一方面,他們製造的汽車也需要AI。他們需要一個AI系統來訓練這些汽車,管理這個龐大的汽車車隊,今天路上有10億輛汽車,將來也會有10億輛汽車,每輛汽車都將是機器人汽車,它們都將收集數據,我們將使用AI工廠來改進它們,就像他們今天有汽車工廠一樣,未來他們將擁有汽車工廠和AI工廠。

然後,在汽車內部是一個機器人系統,所以正如你所看到的,有三臺計算機參與其中,有一臺計算機幫助人們,有一臺計算機爲機器建造AI,它可以是一匹馬,它可以是一臺拖拉機,它可以是一臺割草機,它可以是一個人或正在開發的機器人,它可以是一棟建築,它可以是一個倉庫,這些物理系統需要一種新的AI,我們稱之爲物理AI。它們不僅要理解單詞和語言的含義,還要理解世界的物理意義,摩擦力和慣性,物體的永久性和因果關係,以及所有這些對我們來說是常識的東西,但AI需要去學習這些物理效應,所以我們稱之爲物理AI。

整個使用代理AI來徹底改變公司內部工作方式的部分,這只是剛剛開始。現在是代理AI時代的開始,你聽到很多人在談論它,我們有一些非常令人興奮的事情正在進行中,然後是物理AI之後,還有機器人系統之後,所以這三臺計算機都是全新的,我的感覺是,從長期來看,這將是其中最大的一部分,這在某種程度上是有道理的,因爲世界上GDP的大部分是由重工業或工業企業以及爲這些服務的公司所代表的。

主持人:下一個問題來自富國銀行的Aaron Rakers。請繼續。

Aaron Rakers:

是的,謝謝您再次給我機會提問。Jensen,隨着我們接近Hopper轉折點兩週年的紀念日,您在2023年看到了這一轉折點,以及生成式AI的興起,當我們考慮您面前的道路時,您如何看待已經部署的基礎設施,從替換週期的角度來看,無論是GB300還是Rubin週期,我們何時開始看到可能的更新機會?我只是好奇您是如何看待這個問題的。

Jensen Huang,創始人、總裁兼首席執行官:

是的,我非常感謝。首先,人們仍在使用Voltas和Pascals和Amperes。

原因是因爲因爲CUDA是如此的可編程,你可以使用它。嗯,其中一個主要的用例是數據處理和數據策劃。你發現了一個AI模型不太擅長的情況。你將這種情況呈現給一個視覺語言模型。

假設,假設,是一輛車。你將這種情況呈現給一個視覺語言模型。視覺語言模型實際上查看了這種情況,並說,這並不是我擅長的。然後,你將這個迴應,這個提示,然後你去提示一個AI模型去在你的整個數據湖中找到其他類似的情況,無論這種情況是什麼。然後你使用AI進行領域隨機化,並生成許多其他示例。然後,你可以從這些示例中訓練模型。所以你可以使用Amperes來進行數據處理和數據策劃以及基於機器學習的搜索。

然後你創建了訓練數據集,然後你將這個數據集呈現給你的Hopper系統進行訓練。所以,這些架構中的每一個都是完全兼容的,它們都是CUDA兼容的。所以,所有東西都可以在任何地方運行。但是,如果你有已經部署的基礎設施,那麼你可以將不太密集的工作負載放在過去的安裝基礎上。

我們的所有GPU都被充分利用了。

主持人:我們還有時間回答一個問題,這個問題來自花旗銀行的Atif Malik。請繼續。

Atif Malik:

嗨,謝謝您接受我的提問。我有一個關於毛利率的後續問題,Colette。Colette,我知道有很多變量,Blackwell的產量和NVLink 72以及以太網的混合。你之前有點回避關於第一季度是否是底部的問題。但下半年要達到你給出的年底70年代中期範圍,必須每個季度增長200個基點。我們仍然不知道關稅對更廣泛的半導體行業的影響。

那麼,是什麼讓你對今年下半年的這個軌跡有信心呢?

未具名發言人:

是的,謝謝你的提問。我們的毛利率相當複雜,就我們在Blackwell系統中所使用的材料和所有東西而言。在如何隨着時間推移更好地提高我們的毛利率方面,我們有很多機會。請記住,我們在Blackwell上有許多不同的配置,這將有助於我們做到這一點。

所以,一起工作,在我們爲客戶提供了一些真正強勁的推廣之後,我們可以開始這項工作。如果可能的話,我們將盡快開始。如果我們能在短期內提高它,我們也會這樣做。關稅,目前,這是一個有點未知的因素。

直到我們進一步瞭解美國政府的計劃,無論是時間、地點還是多少,它都是未知的。所以目前,我們正在等待。但當然,我們總是會遵守出口管制或關稅等規定。

主持人:

女士們、先生們,這結束了我們今天的問答環節。很抱歉。讓我們把時間交給Jensen。

Jensen Huang,創始人、總裁兼首席執行官:

我只是想感謝大家。謝謝Colette。對Blackwell的需求是非凡的。AI正在從感知和生成式AI發展到推理AI。

隨着推理AI的發展,我們觀察到了另一個擴展定律,即推理時間或測試時間擴展。模型思考的計算量越多,答案就越聰明。像OpenAI的ROT3、DeepSeek-R1這樣的模型是推理模型,它們應用了推理時間擴展。推理模型可以消耗100倍更多的計算量。未來的推理模型可以消耗更多的計算量。DeepSeek-R1激發了全球的熱情。這是一個出色的創新。但更重要的是,它開源了一個世界級的推理AI模型。幾乎每個AI開發者都在應用R1或思考鏈和強化學習技術,以擴展他們模型的性能。我們現在有三個擴展定律。AI的擴展定律仍然存在。基礎模型正在通過多模態增強,預訓練仍在增長。但僅靠預訓練已經不夠了。

我們還有兩個額外的擴展維度。訓練後的擴展,其中強化學習、微調、模型蒸餾需要比單獨預訓練多幾個數量級的計算量。推理時間擴展和推理,其中單個查詢可以要求100倍更多的計算量。我們爲這一刻設計了Blackwell,一個單一平臺,可以輕鬆地從預訓練過渡到訓練後和測試時間擴展。Blackwell的FP4 Transformer引擎和NVLink 72擴展結構以及新的軟件技術,使Blackwell處理推理AI模型的速度比Hopper快25倍。Blackwell及其所有配置都已全面投產。每個Grace Blackwell NVLink 72機架都是一個工程奇蹟。150萬個組件在350個製造場所生產,由近100000名工廠操作員生產。

AI正以光速發展。我們正處於推理AI和推理時間擴展的開始。但我們只是處於AI時代的開始。多模態AI、企業AI、主權AI和物理AI就在眼前。我們將在2025年強勁增長。展望未來,數據中心將把大部分資本支出用於加速計算和AI。數據中心將越來越多地成爲AI工廠。每個公司都將擁有自己的或租用的。我想感謝大家今天參加我們的會議。請在幾周後加入我們在GTC的會議。我們將談論Blackwell Ultra、Rubin以及其他新的計算、網絡、推理AI、物理AI產品,還有許多其他內容。謝謝。

xiang shuai

關注微博,獲取更多香帥時評

更多感悟,更多陪伴