AI 工廠完整方案、百萬 GPU 級別算力叢集
"The next industrial revolution has begun." 是 CEO 黃仁勳在財報電話會議看法的關鍵,之後在 Computex 2024 釋出的訊息為 Nvidia 早已跨越 GPU 成為 AI 工廠完整方案公司,將加速推動新的產業革命發展。
數據中心是第一波的生成式 AI 先行者,目前企業及國家也在將上兆的數據中心轉向加速運算、打造新一代的數據中心、AI 工廠,AI 模型訓練正在增大規模、朝向多模發展,以生成文字、語言、影像、影片及 3D,接下來是理解與規劃 (reasoning and planning)。
生成式 AI 正在從數據中心發展至消費互聯網企業、國家、汽車、醫療,產生多個數十億的垂直市場,推動多年的增長,AI 模型需求正推動百萬個 GPU 的算力叢集 (cluster) 在 2026 年實現。
Nvidia 提供 AI 工廠完整方案、推動新產業革命
Source: Nvidia Computex 2024
Nvidia 不只提供 GPU、CUDA 軟體生態,更提供完整建置 AI 工廠所需的軟、硬體及系統方案。Nvidia 也將 AI 客戶引入到提供其 GPU 算力的數據中心業者,以目前每一 token 的算力價格計算,數據中心每投資 $1 美元在 H100 系統上,4 年內能創造 $5 的營收,形成三大雲計算服務公司 Amazon、Microsoft、Google 前仆後繼大幅擴建 AI 基礎算力的現象。
H200 較 H100 推論性能提升了一倍、Q2 已開始量產,CEO 黃仁勳親自交付了首套 H200 系統給 OpenAI,協助 OpenAI 演示了 GPT-4o,黃仁勳表示數據中心每投資 $1 在 H200 上,4 年內透過轉賣算力創造的營收自 H100 的 $4 提高到了 $7,Nvida 與數據中心共同推動了 AI 基礎算力的快速發展,跳脫了單純的供應商與客戶關係,趨勢仍在加速發展中。
Blackwell 架構已開始量產,預計下半年伺服器開始出貨,為進入上兆參數大模型的算力根本,Amazon 正在訓練 2 兆參數的 AI 大模型,人類大腦估計有 100~150 兆個神經元,AI 模型尺寸需要增加 50 倍之上,才能進入理解、思考的層面。Nvidia 已進入每年更新 GPU 產品、每 2 年更新 CPU/GPU 架構的節奏以滿足模型參數持續倍增的需求,預期生成式 AI 算力叢集 (cluster) 2025 年進入十萬個 GPU 的級別、2026 年進入百萬級別,將持續推動 Nvidia 營收增長,為市值再翻倍的契機,為引領 AI 賽道的首選投資標的。
Blackwell 平台涵蓋 HGX B200、GB200、NVLink、Quantum-X、Spectrum-X 網路產品到數據中心方案
Source: Nvidia Computex 2024
Nvidia 市值 2027 年突破 6 兆?
根據黃仁勳 6/2 在 Computex 2024 的演講,業界持續增大 AI 模型參數,運算規模呈現指數級別的增長,未來幾乎所有與網路、電腦的互動都需要生成式 AI,部分在終端裝置運作、部分在企業的數據中心,更多會在雲端實現。2024 年是 1 萬 GPU 級別算力叢集的世代、2025 年將進入 10 萬 GPU 級別,2026 則進入百萬級別,呈現指數級成長速度。
Nvidia 進入每年更新 GPU 產品的節奏,2026 產品路線圖除 Rubin GPU、Vera CPU 外,高速互聯網路產品及網路卡 (NIC) 都已準備好迎接百萬 GPU 級別的算力叢集。Nvidia 加速運算副總裁 Ian Buck 6/5 在 BofA 舉辦的全球科技大會回答分析師 Arya 問題時表示,目前有公司在搭建連結 10 萬個 GPU 的算力叢集 (Tesla),且已有公司開始討論百萬 GPU 叢集的計劃,原因為目前最大的 AI 大語言模型參數約為 2 兆,人類大腦卻有高達 100~150 兆個神經元,AI 模型至少需要再增大 50 倍才能達到人類的水平,而且目前的 AI 並未真的具備理解能力,之後也還需要進入思考的層面,分析師 Arya 回應表示目前 AI 模型參數每 6 個月倍增,即使 Nvidia 每年更新產品都可能不夠快。
Nvidia 2026 將進入百萬 GPU 級別叢集世代
Source: Nvidia Computex 2024
GPU 算力叢集指數級別的規模成長,代表 Nvidia 的營收可能繼續呈現指數級別的上升,根據 I/O Fund 的研究,Microsoft 2024 年將從目前 180 萬個 GPU 成長 3 倍,以滿足市場對 Azure 的需求。Meta 目前有 60 萬個 GPU,預期 2024 年會再增加 35 萬個 H100 或 H100 等效算力 GPU,到 2030 年 Meta 的 GPU 算力可能會成長到 2 百萬個。馬斯克則除了在 Tesla 建置 10 萬 GPU 級別叢集外,xAI 可能會購買 30 萬個 B200 GPU。
Broadcom 近期表示預期 2027 年會出現百萬 GPU 級別的運算叢集,與 Nvidia 的看法類似,代表整個 AI 算力叢集的指數級別增長是業界共識,根據 AMD CEO Lisa Su 蘇丰姿的預測,2027 年 AI 加速運算晶片市場可達 4,000 億,而目前 Nvidia 市占率高達 95%。
假設 2027 年因 AMD、Intel 的競爭、科技巨頭自研晶片、ASIC 晶片的影響,Nvidia 整體市占率降至 80%,再將 AMD 估計的 4000 億市場規模取 8 折計算,保守估計 Nvidia 數據中心營收 2027 年將達到 2,560 億的規模,超過 2024 年預期 1200 億營收的一倍之上,目前 Nvidia 市值已達到 3 兆,粗略估計 Nvidia 市值 2027 年有機會隨營收翻倍而突破 6 兆。
美股牛市平均 5.6 年,本輪牛市 2022 年 10 月開啟,假設持續超過 2027 年底,在 AI 熱潮趨勢未出現改變前,Nvidia 市值仍有很大的成長空間,以 1995 年互聯網熱潮開啟,發展到 2000 年才泡沫化,後期飆漲的大多是尚未獲利的公司,AI 現階段尚未出現此現象,因此 AI 賽道仍有不短的發展機會,目前最佳的投資標的還是 Nvidia。
Nvidia 股價 (藍線)、季營收 (紫色直條圖)、淨利潤 (橘色直條圖)
Nvidia FY25Q1 (CY24Q1) 財報表現
Nvidia 5/22 發布 FY2025Q1 財報,除營收占比低的 Professional Visualization 事業低於預期外,其他指標均超越華爾街預期,整體營收環比增長 18%、同比增長 262.1%,超越華爾街預期 5.4%,Non-GAAP EPS 年增 461.5%、超預期 8.3%,自由現金流 149 億、年增 460.9% 並大超預期 21.5%,即使在華爾街連續三季調高預期後,業績依舊表現亮眼。
FY2024Q2/CY2024Q2 營收指引 280 億、年增 107.3%,基期已是數據中心業績開始爆發後第一個季度,營收依舊能翻倍,可見 AI 浪潮的兇猛、需求仍遠大於供給的狀態,毛利率指引 75.5%、略低於華爾街預期的 75.7%,也較上季的 78.9% 下滑,但近似公司 Q4 時給出的指引。
數據中心營收占比持續上升、年增率高達 429.3%,CFO 表示運算產品營收同比增長 5 倍、網路產品營收同比增長 3 倍,超大型雲端數據中心業者營收貢獻降至約 45%,顯示營收進入分散化的初期階段,且推論已佔 Nvidia 數據中心營收 40%。
CFO 表示雲端數據中心業者每投資 Nvidia AI 算力基礎建設 $1,就有機會透過提供 GPU 算力在未來 4 年獲利 $5,Nvidia 也將 AI 客戶引領到數據中心業者,驅動數據中心營收增長、投資 AI 算力的回報,Nvidia 提供完整的軟體、AI 生態系統,幫助雲端數據中心業者的客戶更容易使用 Nvidia GPU 算力,是 AI 公司包含 OpenAI、Adept、Anthropic、Character.ai、Cohere、Databricks、DeepMind、Meta、Mistral、xAI 等使用位於雲端數據中心 Nvidia AI 算力的客戶,也是進行模型訓練及推論最即時、最低成本的方案。
下圖為 Nvidia 季營收趨勢,整體營收因數據中心 (藍色直條) FY24Q2 (CY23Q2) 開始大幅增長,黑線代表的營收季增率 QoQ 持續下滑,預期 Q2 剩下 8%、同比仍將增加 107.3%。不過華爾街目前預測 FY2025Q3 營收 31.27B、環比增長 10.5%、預期營收下半年在新產品上市後再加速增長。
Nvidia 季營收趨勢、QoQ 環比成長率
Source: Nvidia、美股探路客整理
Data center 數據中心營收佔比持續提升
Nvidia 數據中心營收持續高速增長,占比自上季的 83.6% 進一步提升到了 86.6%,從數據中心業者 2024 加速資本支出的趨勢來看,預期 Nvidia 數據中心營收占比在 2024 年仍將進一步升高。
Nvidia 事業體營收佔比趨勢
Source: Nvidia、美股探路客整理
Q2 獲利續增但毛利率略為下滑
華爾街預測 FY2025Q2 EPS $6.38、環比增長 4.2%,由於公司提供的 Q2 營收指引環比增長 8% 來看,Q2 應該能輕易超越獲利預期,但不排除華爾街會持續調高獲利預期。
Q2 毛利率指引為 75.5%,略低於 Q1 的 78.9% 及華爾街預測的 75.7%,但仍高於去年 Q2、Q3 的 75%,因此無需憂慮。
Source: Nvidia、美股探路客整理
展望、業務進展
指引
- 預期營收 280 億 +/- 2%,預期所有產品線環比均增長
- 預期 Non GAAP 毛利率 75.5% +/- 0.5%,與上季預期一致
- 預期全年毛利率 75% 左右,資本支出增長略高於 40%
業務進展
- AI 人工智能
- Nvidia 將大型 GPU 叢集稱為 AI 工廠 (AI Factories),Q1 已有超過 100 家客戶建置 AI 工廠,規模從數百、上萬到 10 萬個 GPU
- Q1 數據中心營收貢獻主要來自 Hopper H100 GPU 架構,H200 已開始量產
- 推論已經佔數據中心營收 40%
- CUDA 軟體
- CUDA 讓 H100 的推論效能提升了 3 倍,代表數據中心客戶的成本降低了 3 倍
- H200 架構
- Q1 開始提供樣品,Q2 已經按計劃開始量產、出貨,目前供應仍受限
- 首套 H200 系統已經由 Jensen 親自交付給 OpenAI 的 Sam Altman,協助了 GPT-4o 的演示
- 推論性能約為 H100 的 2 倍,例如 7000 億個參數的 Llama 3 能提供每秒 24k token 的算力,同時支持超過 2400 位用戶
- 以目前每個 token 的價格計算,每投資 Nvidia H200 HGX 系統 $1 美元,透過 API 的收費模式,數據中心未來 4 年能產生 $7 美元的營收
- Grace Hopper 超級電腦
- 目前在超級電腦領域達到 80% 的佔有率
- 超級電腦能耗效率佔據前三位,全球新的 9 套超級電腦都採用了 Grace Hopper 超級晶片,合計達到 200 exaflops 算力
- Blackwell 架構
- H200 及 Blackwell 需求遠超過供給,情況將延續到明年
- 訓練效能為 H100 的 4 倍、推論效能為 30 倍,提供兆級參數大模型即時運作的生成式 AI 需求
- 已經開始量產,正在進行系統端工作,預期今年稍晚與雲合作夥伴合作在全球供應
- 架構支持 x86 CPU、Grace CPU;支持訓練、推論應用;提供水冷、氣冷架構,預期上市時所有全球知名伺服器製造商將提供超過 100 種 OEM、ODM 系統,為 Hopper 架構發布時的一倍
- 架構包含第五代多 GPU 的 NVLink 傳輸介面、全新的 InfiniBank 及乙太網路交換器
- 提供較 Hopper 架構低 25 倍的整體營運成本、能源消耗,目前客戶已經涵蓋 Amazon、Google、Meta、Microsoft、OpenAI、Oracle、Tesla 及 xAI
- InfiniBand 網路產品
- 由於供應時機問題,環比出貨略為下滑,但 Q2 環比將恢復增長
- 新的 Spectrum-X 網路方案
- 全新針對 AI 優化的乙太網路架構產品,讓傳統的數據中心網路架構升級符合 AI 需求,Q1 已開始出貨,對象包含 100k GPU 叢集的客戶
- 方案包含 Spectrum-4 交換器、BlueField-3 DPU、完整軟體,提供傳統乙太網路 1.6 倍的效能,目標在提升現有乙太網路架構的數據中心以滿足大規模 AI 的應用需求
- 預期在 1 年內達成數十億美元營收
Nvidia 在 Computex 2024 發表 BlueField-3 NIC 網卡、1.6x 效能的 Spectrum-X800
Source: Nvidia Computex 2024
- 新的軟體產品 NIM、Nvidia Inference Microservices
- 提供性能優化後、安全性高的 AI 推論工具箱,基於 Triton、TensorRRT-LLM 等軟體技術
- 提供標準化的 API,應用包含文字、聲音、影像、機器人、基因科學、數位生物學等,讓用戶快速建立並部署生成式 AI 應用
- NIM 為 Nvidia AI Enterprise 的一環,提供雲端及在地化使用
- Tesla
- Nvidia 支持 Tesla 建構 35,000 個 H100 GPU 的 AI 訓練叢集,Tesla 的 FSD V12 也是基於 Nvidia 的 AI 基礎建設
- 預期汽車將成為今年數據中心營收中最大的垂直市場
- Meta
- 本季 Meta 發布的 Llama 3 大模型就在 24,000 個 H100 GPU 上訓練完成
- Llama 3 已導入成為 Facebook、Instagram、WhatsApp 的 AI 助理,也是開源的模型,推動 AI 行業的發展
- 國家級主權客戶
- Nvidia 自晶片、系統、網路、全棧軟體、AI 專業、豐富的合作夥伴生態,讓國家級客戶及區域級客戶快速開始建置 AI 算力,國家級客戶從去年 0 營收到今年預期達到數十億美元
- 日本 KDDI、Sakura Internet、SoftBank 開始建立國家級 AI 基礎建設
- 法國的 Scaleway 目前正在建造歐洲最強大的雲端 AI 超級電腦
- 義大利 Swisscom 集團正在打造義大利首個最強大的 Nvidia DGX 超級電腦
- 新加坡國家超級電腦中心正在升級到 Hopper 超級電腦,新加坡電信正在東南亞多地打造 AI 工廠
- 中國
- 營收自去年 10 月受禁令限制後開始大幅下滑,雖然已推出符合出口規範的產品,但預期仍具挑戰性
- Automotive 汽車
- 營收 3.29 億、同比及環比分別增長 11%、17%,環比增長收到 AI 智能駕駛艙方案收到國際 OEM 客戶採用,同比增長是由自動駕駛需求驅動
- Nvidia Drive Orin 獲得小米第一台電動車 SU7 採用
- Orin 下一代產品 Nividia Drive Thor 採用 Blackwell 架構,獲得 BYD 比亞迪、XPeng 小鵬、GAC Aion 廣汽埃安等車款的採用,預期明年配合車款量產上市
- Gaming 遊戲
- 營收 26.5 億、環比下滑 8%、同比增長 18%,環比下滑主要為季節因素
- GeForce RTX GPU 具有 CUDA Tensor 核心,已經有 1 億套安裝量,能在 PC 端運行 AI 推論應用
- TensorRT-LLM 能加速 Microsoft 的 Phi-3 Mini 模型、Google 的 Gemma 20、70 億參數的模型
- 公司與 Microsoft 宣布針對 GeForce RTX 在 Windows 上運行大模型的優化,最高提升了 3 倍速度
- Professional Visualization
- 營收 4.27 億、同比增長 45%、環比下滑 8%,預期生成式 AI 與 Omniverse 的工業數位化將驅動下一波 Professional Visualization 的增長
- GTC 大會宣布新的 Omniverse Cloud API,讓開發者整合工業的數位孿生 Digital Twin 及模擬仿真技術到應用中,Ansys、Cadence、3DXcite、Dassault、Siemens 等軟體公司已經採用,開發者可以將工業數位孿生傳送到空間運算裝置例如 Apple Vision Pro
- 今年稍晚將在 Microsoft Azure 上提供Omniverse Cloud API
- 財務重要事項
- Q4 及 Q1 毛利率受惠於較低的零件成本
- Non-GAAP 營業費用上升 13%,反應更高的股權報酬、增加的算力基礎建設投資
- Q1 透過股票回購及派發股息,共返還股東 78 億美元
- 宣布 10:1 拆股,6/10 開始生效交易,調高股息 150%
分析師 Q&A
- Q / Bernstein 分析師:既然 Blackwell 在量產中,客戶何時能拿到產品?今年會有營收貢獻嗎?
- Jen-Hsun Huang, CEO
- 出貨會在 Q2,但出貨增長在 Q3,預期 Q4 就能在數據中心提供算力
- 今年會看到很大量的 Blackwell 營收貢獻 (We will see a lot of Blackwell revenue this year)
- Jen-Hsun Huang, CEO
- Q / UBS 分析師:Blackwell 及 Hopper 的系統部署有何差異?特別是大規模的液冷技術從未在數據中心實現過
- Jen-Hsun Huang, CEO
- Blackwell 是一個平台不是 GPU,平台有很多不同配置,有氣冷、液冷,有 x86、Grace,有 InfiniBand、Spectrum-X,非常龐大的 NVLink
- 因此一些客戶會在已採用 H100 的現有數據中心導入,這類客戶能輕鬆從 H100 到 H200、到 B100,Blackwell 被設計為機構上、電氣上向後相容,Hopper 上的軟體也能在 Blackwell 上運行
- 我們一直在為整個液冷生態系做準備,整個供應鏈、數據中心、ODM、系統製造商、液冷供應鏈都不會對 Blackwell 感到意外,我們已經準備交付 Grace Blackwell 200,GB 200 將是很棒的產品
- Jen-Hsun Huang, CEO
- Q / BofA 分析師:如何確保產品有足夠的使用率,沒有因為供應緊張而出現提前下單的行為?如何確信貨幣化的進展與出貨量增長保持同步
- Jen-Hsun Huang, CEO
- 數據中心對 GPU 的需求很驚人,因為 ChatGPT、GPT-4o,因為 Gemini、Anthropic 使用都在上升,模型開始進入多模,數據中心都在消耗 GPU 的算力
- 此外,不同領域的 AI 新創公司大約有 15k~20k,有多媒體、數位人物、生產力應用、數位生物學等,自動駕駛公司開始採用端到端模型,國家級 AI 客戶等,客戶都對我們盡快交貨施加壓力
- 需求遠遠超過供給是我們的結論,長期來看,我們正在全面重新設計電腦的運作方式,這是平台轉移,是目前史上最深遠的平台轉移,電腦不再是透過指令來驅動,而是理解使用者意圖的電腦
- 電腦不再是存取先前的檔案,而是產生有意義的智慧性答案,人們今天看到我們正在做的事情,其實只是一個開端
- Jen-Hsun Huang, CEO
- Q / Morgan Stanley 分析師:公司預期 Hopper 及 H100 需求會因為新產品轉移而停滯?客戶是否會等新產品?或者公司認為 H100 有足夠需求、維持增長
- Jen-Hsun Huang, CEO
- 本季 Hopper 的需求持續增長,即使處於轉換到 H200 的過程,需求仍超過供給,轉換到 Blackwell 也是相同
- 每個客戶都急於讓 AI 基礎算力盡快上線,因為越早上線越早產生營收、節省成本
- Jen-Hsun Huang, CEO
- Q / Goldman Sachs 分析師:許多數據中心客戶都在開發自己的晶片,到什麼階段會被公司視為競爭對手?或者認為他們只是滿足大部分的內部工作負載?
- Jen-Hsun Huang, CEO
- 三個原因 Nvidia 仍是首選
- 1、Nvidia 的加速運算架構讓客戶能處理所有型態的數據,軟體的豐富度讓客戶能應用在幾乎所有運算需求,從電腦視覺、影像處理、電腦繪圖、多模態運算,平台多樣化的彈性讓數據中心的整體持有成本最低
- 2、Nvidia 無所不在,從所有數據中心到在地的電腦系統,對開發者選擇開發平台而言,Nvidia 是絕佳的選擇
- 3、AI 不是晶片問題,而是系統問題,我們提供打造 AI 工廠的完整方案,Nvidia 提供最佳化所有 GPU 協同運算的系統方案,我們持續優化系統效能,如果客戶擁有 50 億的數據中心基礎建設,效能提升 1 倍,代表價值增加 50 億,因此越強大的性能成本越低,也是最低的整體擁有成本
- 三個原因 Nvidia 仍是首選
- Jen-Hsun Huang, CEO
- Q / TD Cowen 分析師:客戶投資數十億美金在公司的產品上,但很快競爭力就會不如新產品,速度可能超過折舊速度,這樣的情況在客戶端的看法如何?
- Jen-Hsun Huang, CEO
- 我有三個看法
- 如果僅投入 5% 相較已投入 95% 的會有很大的差異,前者會積極建置、越快越好,我們處於每年更新產品的節奏,也會盡可能讓客戶知道產品路線圖,因為目前客戶處於投入的早期階段,而且越快建置營收越高,所以他們會持續不斷建置算力,性能也會平均化
- time-to-train 訓練到產品宣布時機極為重要,先宣布達成 AI 突破的公司,第二家可能只能改進 0.3%,你希望成為領先宣布 AI 有突破的公司,還是第二家 0.3% 改進的公司,科技公司領先地位的競爭很重要,如果能提早 3 個月開始訓練幾乎就代表了一切,這是科技公司瘋狂搶購 Hopper 的原因
- 我們實際上能建置整個數據中心,能對一切進行最佳化,了解瓶頸在何處,我們能交付大規模化的系統
- 我們從晶片到整個系統都非常熟悉,實際上在公司建置了整個 AI 系統,然後拆解安裝到客戶的數據中心,這些對整個數據中心的深度知識是我們跟其他人最大的不同
- 我有三個看法
- Jen-Hsun Huang, CEO
- Q / Jefferies 分析師:公司針對中國開發了 H20 晶片,對於其下半年銷售及毛利率的看法?
- Jen-Hsun Huang, CEO
- 中國的銷售遠低於之前,因為技術出口的限制,導致競爭也更為激烈
- 我們持續盡最大努力服務客戶,不過整體而言,我們需求大於供給的看法是對整體市場而言,特別是對 H200、Blackwell 的需求
- Jen-Hsun Huang, CEO
- Q / Raymond James 分析師:GB 200 似乎有強勁的需求,過去公司銷售大量的 HGX 板卡級產品、一些 GPU,但現在似乎是系統有強勁需求,是架構原因還是整體持有成本的原因?
- Jen-Hsun Huang, CEO
- 銷售 GB200 的方式沒改變,我們拆分所有有意義的零件,透過電腦製造商整合,Blackwell 將有超過 100 種不同的系統配置,Hopper 則頂峰期大約為其一半,一開始則更少
- 所以將能看到合作夥伴提供液冷、氣冷、x86 版、Grace 版等各種不同配置的系統
- Blackwell 能大幅擴展能提供的配置,液冷能幫助數據中心大幅節省能源費用,更昂貴但是更好的解決方案
- Blackwell 讓數據中心能得到更高性能,我們也提供僅具有乙太網路生態架構客戶新的網路解決方案,整合大規模的 Nvidia AI 系統,所以 Blackwell 的範圍更為廣闊,提供這一代客戶更多選擇
- Jen-Hsun Huang, CEO
- Q / Truist Securities 分析師:您提到 Intel 及 AMD 是很好的合作夥伴,提供很棒的 x86 產品,但在新興的 AI 工作負載中,Nvidia 有何優勢、其他人會面臨哪些挑戰?
- Jen-Hsun Huang, CEO
- 我們跟 x86 夥伴有很好的合作,一起開發了很好的系統,但 Grace CPU 讓我們能達成與 x86 無法達成的架構
- Grace CPU 跟 Hopper GPU 之間透過高速每秒 terabyte 介面連接成為一顆超級晶片,Grace 採用的是 LPDDR 低功耗記憶體、是首個數據中心等級低功耗記憶體,每一個節點都能省下大量功耗
- Grace Hopper 的架構讓我們能設計整個系統,建立龐大的 NVLink 網域,對大型語言模型推論極為重要,GB200 有 72 個節點的 NVLink,就像 72 個 Blackwell 結合成一個超大的 GPU,這樣的設計是出於架構需求、軟體需求、系統需求
- Jen-Hsun Huang, CEO
Blackwell 72 個 NVLink 為 Hopper 8 個的 9 倍
Source: Nvidia
- Q / Cantor Fitzgerald 分析師:在 GPU、客製化 ASIC 的競爭中,Nvidia 的創新路徑為何?未來十年需要解決什麼阻力,今天能分享什麼新的發展?
- Jen-Hsun Huang, CEO
- 我可以宣布 Blackwell 之後有新的晶片,我們處於每一年更新的步調,新的網路架構也在快速更新的中,剛剛發佈了適合乙太網路的 Spectrum-X,接下來有令人興奮的乙太網路產品路線圖
- 我們有豐富的生態合作夥伴,Dell 宣布會將 Spectrum-X 推廣到市場上,我們的合作夥伴接下來將宣布將整個 AI 工廠架構推廣到市場上
- 我們有三種運算結構,單一運算網域的 NVLink 結構,對需要極端性能的客戶,提供 InfiniBand 運算架構,對乙太網路則提供 Spectrum-X
- 接下來有新的 NIC 網路卡、新的 CPU、GPU 能在這三種運算結構運行,更有 CUDA 能在所有這些硬體結構上運作,所以如果客戶投資資源在我們的軟體上,運算速度將越來越快
- 我們創新的速度一方面推動了產品的能力,另一方面降低了客戶整體持有成本,Nvidia 的架構在新運算世代能不斷擴張,開啟新的產業革命,我們不只是製造軟體,而是將大規模製造 AI tokens
- Jen-Hsun Huang, CEO
Nvidia 在 Computex 2024 發表 Blackwell 下一代的 Rubin 平台架構
Source: Nvidia Computex 2024
投資分析
華爾街評等、目標價
華爾街目前共有 61 位分析師對 Nvidia 給出投資評等,買入評級 46 位、超越大盤 9 位、6 位為持有,整體評價為買入,代表華爾街持續看好 Nvidia 接下來的表現。
未來 12 個月的目標價最高為 $1500、最低 $655、平均價為 $1222.45、大幅高於半年前分析 FY24Q3 財報時的 $667.43,中位數 $1200、也大幅高於半年前的 $650。
華爾街對 FY2025Q2 (CY2024Q2) 的 EPS 預測為 $6.38、環比增長 4.2%,較 1 個月前的 $5.91 提高了 7.9%,值得注意的是對 FY2025Q3 (CY2024Q3) 的 EPS 預測為 $6.99、環比增長 9.6% 出現加速增長的狀況,應與新的 H200 上市有關,預期下半年 H200、Blackwell 平台上市對於營收及獲利將再進入加速增長的趨勢。
華爾街對 Nvidia 季度 EPS、投資評等及 12 個月目標價
Source: wsj.com
營收、獲利成長性
華爾街目前預測 FY2025Q2 營收 28.31B、環比增長 8.7%、同比增長 109.5%,預測 FY2025 全年營收 120.03B、同比大幅增長 97.02%,即使 FY2026 營收仍能再成長超過 30%,不過仍有低估的可能性。
在 EPS 獲利方面,預測 FY2025 同比增長 108.68%、FY2026 再增長 30.4%,雖然成長逐年放緩,但 FY2026 (CY2025) 獲利年增仍超過 3 成,不僅在科技巨頭中領先,也是多數科技股中難得的高成長投資標的。
華爾街對 Nvidia 營收、獲利預期
Source: Koyfin
NTM、FY2026 EPS 及 P/E ratio、PEG 估值
Nvidia 財報後已上漲近 30%,目前 NTM P/E ratio 上升至 41.7x、約為 2020 年迄今的中位數、但高於 2019 水平,乍看有略為偏高的情況,不過公司 PEG 仍為非常合理的 1.31x,主要原因為 2025 (FY2026) EPS 持續攀高、華爾街目前預測為 $35.39,高出未來 12 個月 NTM EPS 的 $29 達 22%。
目前美股市值最高的 Microsoft NTM PE ratio 為 33.5x,但 PEG 則高達 2.68x,Nvidia 雖然 PE ratio 41.7x 較高,但獲利成長性高出很多,PEG 只有 1.3x,因此 Nvidia 估值仍合理。
Nvidia 股價上升趨勢與獲利增長趨勢類似,主要受到基本面驅動,加上估值仍處於合理狀態,只要營收、獲利持續快速增長,預期股價仍將持續上漲,如果以 FY2026 EPS $35.39、Forward P/E ratio 35x~40x 計算,2024 年底合理目標股價為 $1,238~$1,415 之間,若考慮獲利可能高於華爾街預期 5%,基本面估算股價年底高點可能逼近 $1,500。
Nvidia 股價 vs NTM、FY2026 EPS 及 NTM P/E Ratio、PEG Ratio
Source: Koyfin
技術分析
週 K 及長線趨勢
Nvidia 週 K 線顯示股價已漲至 2018 開啟的長期上升趨勢通道上緣,短線可能沿著上升通道上緣震盪向上,2021 歷史前高及 2022 熊市低點構成的 Fibonacci 延伸比例 2.272 在 $1,519,結合長期上升通道以及 2022 開啟的上升趨勢線 (藍色) 也顯示 2024 年底可能上漲至 1500 左右。
Nvidia 週 K 線圖
Source: TradingView
日 K 及短線趨勢
Nvidia 日 K 線顯示股價 5 月開始沿著 8 EMA 上漲,5 月下旬財報發布跳空大漲後僅回測過一次 8 EMA,股價表現強勢,目前上漲至 2018 開啟的長期上升通道上緣,預期短線再大漲機率較低,趨勢可能傾向橫向震盪整理後再上漲,除了 8 EMA、21 EMA 外,3 月歷史前高 $974、4 月低點 $756 構成的 Fibonacci 延伸比例提供額外的阻力及支撐位:
- 阻力:$1254、Fibonacci 延伸比例 2.0
- 支撐:$1,161、8 EMA
- 支撐:$1139、Fibonacci 延伸比例 1.618
- 支撐:$1068、21 EMA
Nvidia 2024 年 (FY2025) 仍有很大的成長空間,如週 K 線技術面及基本面估值分析,預測 2025 年底合理目標為 $1,500、拆股後的 $150,代表 6 個月內仍可能有超過 24% 的上漲空間,當然過程中股價仍可能震盪回檔整理至支撐位。
Nvidia 日 K 線圖
Source: TradingView
結 語
生成式 AI 技術要讓 AI 具備理解能力、進入思考層面需要更大的模型,訓練及推論需要的算力呈現指數級增長,Nvidia 已進入每年更新 GPU 產品、每兩年更新 CPU 及 GPU 架構的節奏,佈局 2026 年百萬 GPU 級別算力叢集的需求。
Nvidia 具備建置完整數據中心的能力,能以 AI 工廠模式提供雲計算業者、企業數據中心完整方案,熟悉整個系統架構、具備 AI 模型應用庫,能針對 AI 算力瓶頸在各個層面進行優化,也是為何推出 Grace Hopper CPU 結合 GPU 形成超級晶片、推出高速 AI 專屬網路 InfiniBand、加速乙太網路效能的 Spetrum-X 產品的原因。
Nvidia 基本面及技術面來看,2024 年股價仍有不錯的表現空間,預期下半年 H200、Blackwell 平台上市對於營收及獲利將再進入加速增長的趨勢,若本輪美股牛市持續超過 2027 年底,生成式 AI 熱潮不減、應用能開始顯現成效,百萬級別 GPU 算力叢集需求 2026 年開始實現,推動 Nvidia 市值再翻倍的可能性很高,AI 依舊是美股重要的賽道,Nvidia 是賽道中的首選投資標的。
本文為作者個人研究、非投資建議|投資有風險、請審慎獨立判斷