AMD 的佑級野心:蘇姿丰如何用一場演講宣示挑戰 NVIDIA
AMD 執行長蘇姿丰在 CES 2026 發表長達兩小時的主題演講,推出 MI-455X 晶片、Helios 機櫃架構,並宣布與 OpenAI 的 6GW 合作案。這場演講不只是產品發布,更是 AMD 對 NVIDIA 的正面宣戰。本文深度解析 AMD 的全線布局、與 NVIDIA 的規格對決、台灣供應鏈的受惠程度,以及投資人該關注的關鍵指標。
本文整理自 AMD 於 CES 2026(2026 年 1 月 6 日)發表的主題演講。 🎬 收看連結:YouTube
一座重達 3,175 公斤的龐然大物被推上了 CES 2026 的舞台。這不是什麼概念車或機器人,而是一座 AI 運算機櫃。AMD 執行長蘇姿丰站在這座名為「Helios」的機櫃旁,用一句話定義了它的身份:「世界上最好的 AI 機櫃。」這句話是對 NVIDIA 的直接挑釁。過去幾年,NVIDIA 的 DGX 系統幾乎壟斷了 AI 資料中心的高階運算市場。但蘇姿丰顯然不打算繼續當追趕者。她用長達兩小時的主題演講,鋪陳了 AMD 的完整戰略藍圖——從雲端到邊緣、從資料中心到個人電腦、從醫療到太空,AMD 要讓 AI 無所不在。
這場演講的核心訊息可以用三個字總結:Yotta scale(佑級規模)。這個單位對多數人來說很陌生,但它代表的數字令人震撼。一個 Yottaflop 是 10 的 24 次方——也就是 1 後面跟著 24 個零。相較於我們熟悉的「Peta」(拍,10 的 15 次方),Yotta 大了十億倍;相較於目前全球超級電腦的頂尖水準「Exa」(艾,10 的 18 次方),Yotta 大了一百萬倍。如果用一支 iPhone 16 的運算能力來比較,一個 Yottaflop 大約相當於一千億支 iPhone 同時全力運算。蘇姿丰預測,未來五年內,全球 AI 運算需求將達到 10 Yottaflops 以上,這是 2022 年水準的一萬倍。這個數字聽起來瘋狂,但她的論據很清楚:AI 使用者已經從一百萬人成長到十億人,而這只是開始。
雲端 AI 的軍備競賽:MI-455X 與 Helios 架構
要支撐佑級規模的運算需求,需要的不只是更快的晶片,而是整個系統架構的重新設計。這正是 Helios 的核心價值所在。AMD 將 Helios 定位為「佑級時代的機櫃級平台」,它不是把一堆 GPU 塞進機櫃那麼簡單,而是從晶片、散熱、網路、軟體全面整合的系統解決方案。
Helios 的核心是 MI-455X,AMD 有史以來最強大的 AI 加速器。這顆晶片的規格令人瞠目:3,200 億個電晶體、12 顆採用台積電 2 奈米與 3 奈米製程的運算與 I/O 小晶片、432GB 的 HBM4 記憶體,以及次世代 3D 晶片堆疊技術。蘇姿丰特別強調,MI-455X 相較於上一代 MI-355X 的效能提升幅度高達 10 倍。這個數字如果屬實,將是 AMD 資料中心 GPU 歷史上最大的世代跨越。
但 MI-455X 只是 Helios 的一部分。每個 Helios 運算托盤包含四顆 MI-455X GPU,搭配代號「Venice」的次世代 EPYC CPU,以及 Pensando 網路晶片,全部採用液體冷卻以最大化效能。Venice 採用台積電 2 奈米製程,最高可達 256 顆 Zen 6 核心,記憶體與 GPU 頻寬較上一代翻倍,專為餵飽 MI-455X 的胃口而設計。整座 Helios 機櫃包含 72 顆 MI-455X GPU、超過 18,000 個 GPU 運算單元、4,600 顆 Zen 6 CPU 核心、31TB 的 HBM4 記憶體,總運算能力達到 2.9 ExaFLOPS(FP4 精度)。
這個規格直接對標的是 NVIDIA 在同一場 CES 上發布的 Vera Rubin NVL72 系統。兩者都採用 72 顆 GPU 的配置,但在細節上各有勝負。記憶體容量方面,AMD 的 MI-455X 每顆配備 432GB HBM4,NVIDIA 的 Rubin 每顆是 288GB HBM4——AMD 領先約 50%。這意味著 AMD 系統可以處理更大的 AI 模型,不需要將模型切割到多個節點。但在記憶體頻寬方面,NVIDIA 據報導調整了規格,讓 Rubin 的頻寬不再落後。整體算力方面,兩者大致持平:Helios 宣稱 2.9 ExaFLOPS(FP4),Vera Rubin NVL72 宣稱 2.5-3.6 ExaFLOPS(FP4)。
真正的差異在於生態系統策略。Helios 基於 Meta 提交給開放運算計畫(OCP)的 Open Rack Wide 標準設計,強調互通性與可擴展性,避免供應商鎖定。NVIDIA 的系統則依賴其專有的 NVLink 互連技術與 CUDA 軟體生態。AMD 押注開放標準,包括 UALink(用於節點內 GPU 互連)與 Ultra Ethernet(用於跨節點擴展),試圖打破 NVIDIA 的護城河。
OpenAI 站台:6GW 合作案的戰略意義
產品規格只是故事的一半。真正讓這場演講具有分量的,是蘇姿丰請上台的來賓陣容。第一位就是 OpenAI 總裁暨共同創辦人 Greg Brockman。
Greg Brockman 的出現不只是象徵性的背書。2025 年 10 月,AMD 與 OpenAI 宣布了一項震撼業界的合作:OpenAI 將部署高達 6GW 運算能力的 AMD GPU,用於其 Stargate 計畫的資料中心。6GW 是什麼概念?大約是胡佛水壩發電量的三倍。這項合作預計為 AMD 帶來數百億美元的營收,並讓 OpenAI 獲得數十萬顆 AMD 晶片。首批 1GW 的 MI-450 系列 GPU 將於 2026 年下半年開始部署。
在舞台上,Brockman 分享了幾個關於 AI 如何改變生活的故事。他的同事的丈夫因為腿痛去急診,被診斷為肌肉拉傷。但 ChatGPT 根據症狀判斷可能是血栓,建議回診。結果證實是深層靜脈血栓加上肺部血栓,如果延遲就醫可能致命。另一位同事在醫院準備注射抗生素時,ChatGPT(存有她完整病史)警告這種藥物可能引發她兩年前的感染復發。這些故事聽起來像是行銷話術,但 Brockman 要傳達的訊息很清楚:AI 的價值已經從回答問題,進化到救人性命。
更重要的是 Brockman 對運算需求的描述。他說,OpenAI 內部每次要發布新功能、訓練新模型,都會為了運算資源激烈爭論,因為想做的事太多、資源永遠不夠。他甚至說:「我希望世界上每個人背後都有一顆 GPU 在運轉,因為我相信它能為每個人創造價值。」這是數十億顆 GPU 的需求——沒有任何一家公司有計畫建造這種規模的產能。
Brockman 還展示了一張由 ChatGPT 製作的投影片,說明 AI 正在從「問答模式」轉向「自主式 AI」(Agentic AI)。在自主模式下,AI 不只是回答問題,而是主動執行任務——可能花幾分鐘、幾小時、甚至幾天完成一項複雜工作。使用者早上醒來,可能會發現 AI 已經幫你處理好待辦事項、分析完資料、甚至完成了部分程式碼開發。這種模式需要截然不同的硬體架構:人類互動時需要低延遲,自主式 AI 持續運算時需要高吞吐量。AMD 的 Helios 正是為這種混合需求而設計。
從雲端到邊緣:AI PC 與本地運算的布局
雲端 AI 是 AMD 的主戰場,但蘇姿丰的野心不止於此。她用大量篇幅介紹了 AI PC——讓 AI 在你的個人電腦上本地運行,而不需要連接雲端。
新發布的 Ryzen AI 400 系列處理器是 AMD 在這個領域的主力產品。它整合了最高 12 顆 Zen 5 CPU 核心、16 顆 RDNA 3.5 GPU 核心,以及最新的 XDNA 2 NPU(神經處理器),提供高達 60 TOPS(每秒 60 兆次運算)的 AI 運算能力。AMD 宣稱這是「業界最廣泛、最先進的 AI PC 處理器家族」,首批產品將於一月底出貨,全年將有超過 120 款筆電、桌機、商用電腦搭載這個平台。
更令人矚目的是 Ryzen AI Max。這顆處理器整合了 16 顆 Zen 5 CPU 核心、40 個 RDNA 3.5 GPU 運算單元、XDNA 2 NPU,以及最高 128GB 的統一記憶體架構——CPU、GPU、NPU 共享同一個記憶體池。這讓 Ryzen AI Max 可以在本地運行高達 2,000 億參數的 AI 模型,不需要連接雲端。AMD 表示,在 AI 與內容創作應用中,Ryzen AI Max 的效能顯著超越最新的 MacBook Pro;在小型工作站形態下,其每美元的 Token 產生速度是 NVIDIA DGX Spark 的 1.7 倍。
蘇姿丰還發布了一款令人驚艷的產品:Ryzen AI Halo。這是一個巴掌大小的參考設計平台,號稱「世界上最小的 AI 開發系統」,卻能在本地運行 2,000 億參數的模型。它搭載最高階的 Ryzen AI Max 處理器與 128GB 統一記憶體,預載 ROCm 軟體棧與開源開發工具,支援 Windows 與 Linux,將於 2026 年第二季上市。對於想要開發、測試本地 AI 應用的開發者來說,這是一個極具吸引力的選項。
Liquid AI 執行長 Ramin Hassani 上台展示了本地 AI 的應用場景。Liquid AI 專注於開發可以在任何處理器上高效運行的 AI 模型,他們發布了 LFM 2.5——一個只有 12 億參數的小型模型,卻在指令遵循能力上超越了許多更大的模型。他們還展示了「主動式 AI 助理」的概念:AI 不是等你發問才回答,而是在背景持續運作,幫你分析郵件、準備會議摘要、甚至代替你參加會議。重要的是,這一切都在本地執行,資料不需要上傳雲端。Liquid AI 宣布將與 Zoom 合作,把這些功能整合到 Zoom 平台上。
垂直產業的 AI 革命:醫療、3D 世界、機器人
蘇姿丰的演講野心不止於硬體。她花了相當多的時間展示 AMD 技術在垂直產業的應用,尤其是醫療、3D 世界生成、機器人與太空探索。
在醫療領域,三位業界領袖輪番上台。Absci 執行長 Sean McClain 介紹了他們如何用生成式 AI 從頭設計新藥。傳統藥物研發是「大海撈針」的試錯過程,但生成式 AI 可以直接「設計」出符合需求的分子。McClain 透露,Absci 透過與 AMD 的合作,現在一天可以篩選超過一百萬種候選藥物。他們正在開發治療雄性禿與子宮內膜異位症的藥物——前者困擾著數億男性,後者影響十分之一的女性。「AI 會讓禿頭成為歷史嗎?」這個問題聽起來像玩笑,但 McClain 認真地說,這是可能的。
Illumina 執行長 Jacob Thaysen 談到基因定序與 AI 的結合。人類基因組有 30 億個字母,如果印成書大約是 20 萬頁。只要一個「錯字」,就可能決定一個人是健康長壽還是疾病纏身。Illumina 的定序儀每天產生的資料量超過 YouTube 整個平台的上傳量,需要 AMD 的 FPGA 與 EPYC 處理器才能即時處理。Thaysen 預測,AI 將徹底改變我們對生物學的理解,從「治療疾病」進化到「預防疾病」,最終改變人類對壽命與健康的認知。
AstraZeneca 分子 AI 負責人 Ola Engkvist 則分享了大藥廠如何將 AI 應用到整個研發流程。他們用生成式 AI 評估數百萬種候選藥物分子,只把最有希望的幾個送進實驗室驗證,大幅減少實驗次數。結果是候選藥物的產出速度提升了 50%,臨床成功率也有所改善。
3D 世界生成是另一個令人興奮的領域。史丹佛大學教授、World Labs 共同創辦人暨執行長李飛飛親自上台,介紹她所謂的「空間智慧」(Spatial Intelligence)。這是讓 AI 不只理解文字和圖片,還能理解、創造、並與 3D 世界互動的能力。World Labs 開發的 Marble 模型可以從幾張照片生成完整的、可導航的 3D 環境——不是平面渲染,而是真正的 3D 空間,你可以在裡面移動、探索。李飛飛的團隊甚至用手機拍了幾張 AMD 矽谷辦公室的照片,幾分鐘後就生成了一個 3D 版本,還可以一鍵換成埃及風格或威尼斯風格的設計。這種技術對遊戲開發、建築設計、機器人模擬都有巨大潛力。傳統上需要數月的 3D 建模工作,現在可能只需要幾分鐘。
機器人領域,義大利理工學院衍生的 Generative Bionics 帶來了他們的人形機器人 GeneOne。這家公司的哲學是「以人為中心的物理 AI」——機器人應該放大人類的能力,而不是取代人類。GeneOne 的特點是全身佈滿觸覺感測器,讓它能感知壓力、接觸、甚至人類的意圖。這對於工廠的人機協作、醫療照護中的病患扶持都至關重要。GeneOne 將於 2026 年下半年開始量產,已經有鋼鐵製造商簽約在高危險環境中部署。
太空領域則由 Blue Origin 月球永久基地計畫資深副總裁 John Koulouris 代表。Blue Origin 的願景是建立人類在月球的永久存在,而這需要可靠、耐輻射、低功耗的運算系統。AMD 的嵌入式架構正在為 Blue Origin 的飛行電腦提供動力,他們最近還開始採用 Versal 2 晶片,並在幾個月內就完成了整合與模擬測試,成功模擬了月球著陸。Koulouris 對 AI 在太空的應用特別興奮:AI 可以成為太空人的副駕駛,辨識著陸點、偵測危險、在即時環境中做出決策。他甚至提到,在月球背面部署邊緣 AI,可以利用那裡無線電靜默的環境進行射電天文觀測,而 AI 可以即時分析資料,告訴下一台探測器該降落在哪裡。
超級電腦與國家戰略:Genesis 任務
演講的最後一個重頭戲是美國政府的 Genesis 任務。這是一項由能源部主導的國家級計畫,目標是加速 AI、超級運算、量子運算的融合,在十年內讓美國科學研究的生產力翻倍。蘇姿丰邀請了總統科技政策顧問 Michael Kratsios 上台說明。
Genesis 任務的規模堪比阿波羅計畫或曼哈頓計畫。它將整合美國國家實驗室的頂尖超級電腦與數據集,建立一個統一的、閉環的 AI 平台,用於自動化實驗設計、加速模擬、生成預測模型。優先領域包括生物科技、關鍵礦物、核能、太空探索、量子運算、半導體。AMD 是首批產業夥伴之一,將為橡樹嶺國家實驗室提供兩台新超級電腦:Luxe(美國首座專用於科學的 AI 工廠,2026 年初上線)與 Discovery(下一代旗艦超級電腦,2028 年規劃中)。
Kratsios 還透露了川普政府的 AI 戰略三大支柱:移除創新障礙、建設 AI 基礎設施與能源、以及 AI 外交。美國政府正在簡化資料中心建設的許可流程,支持包括先進核能在內的各種能源形式,並計畫透過「美國 AI 出口計畫」向盟國輸出美國的 AI 技術棧——從基礎設施、晶片到模型與應用。
演講尾聲,蘇姿丰請上了 Hack Club 的三位高中生團隊成員。這個團隊在 AMD 贊助的全國黑客松中獲得金牌,他們用 AMD MI300X GPU 訓練了一個視覺語言模型,並部署在 Ryzen AI 筆電上,打造了一個可以自主倒飲料的機器人手臂。這三位 17、18 歲的學生——Emmy MacDonald、Ruzanna Gaboyan、Afia Eva——在台上介紹了她們的專案,並各自獲得 AMD 頒發的 2 萬美元教育獎學金。這個環節或許是整場演講中最具象徵意義的部分:AMD 不只是在賣晶片,而是在投資下一代的 AI 人才。
市場反應與投資人該關注的指標
演講結束後,市場反應如何?CES 2026 開幕前,AMD 股價已經先行上漲。1 月 2 日(新年第一個交易日),AMD 收漲 4.3%,報 223.47 美元;1 月 3 日早盤進一步上漲 6%,一度觸及 227 美元。演講當天盤前,股價再漲 2.6%,來到 229 美元附近。過去 12 個月,AMD 股價上漲了 76%,漲幅甚至超過 NVIDIA 的 30%。
但這個漲幅必須放在更大的背景下理解。目前 AMD 的市值約 3,590 億美元,而 NVIDIA 的市值高達 4.5 兆美元——差距超過 12 倍。在資料中心 GPU 市場,NVIDIA 佔據約 94% 的市佔率,AMD 只有約 6%。這個差距短期內不會逆轉。
不過,有幾個跡象顯示 AMD 的競爭力正在提升。首先是客戶基礎的擴大。除了 OpenAI 的 6GW 大單,Oracle 也宣布將在 2026 年第三季部署 50,000 顆 MI-450 系列 GPU 的超級叢集。AMD 表示,其資料中心 AI 營收預計在未來 3-5 年內以超過 80% 的年複合成長率增長。其次是技術差距的縮小。MI-455X 的記憶體容量領先 NVIDIA Rubin 約 50%,這對於運行超大型模型是關鍵優勢。ROCm 軟體生態也在改善——Luma AI 執行長在台上表示,他們 60% 的推論工作負載已經跑在 AMD GPU 上,而且「大多數工作負載開箱即用」。
但風險同樣明顯。NVIDIA 的 CUDA 軟體生態經過十多年的經營,擁有數百萬開發者、數十萬個優化過的程式庫與模型。AMD 的 ROCm 雖然進步迅速,但在相容性、易用性、文件完整度上仍有差距。更重要的是,NVIDIA 並沒有坐以待斃。黃仁勳在同一場 CES 上發布了 Vera Rubin 平台,宣稱推論效能比 Blackwell 提升 5 倍、每 Token 成本降低 10 倍。所有主要雲端供應商——Microsoft、AWS、Google Cloud、CoreWeave——都將是 Vera Rubin 的首批客戶。AI 實驗室如 OpenAI、Anthropic、Meta、xAI 也都會採用。AMD 要在這個市場站穩腳跟,必須在軟體生態與客戶支援上持續投資。
對投資人來說,最值得追蹤的指標是 MI-450/MI-455 系列的出貨量與營收。這是 AMD 資料中心 AI 業務的核心,2026 年下半年開始大規模出貨後的季度財報將是關鍵驗證點。OpenAI 合作案的實際進展同樣重要——6GW 是一個巨大的數字,但分階段部署意味著短期內不會全部反映在營收上,投資人需要關注每一階段的交付進度與客戶回饋。
Helios 的 OEM 採用率則是觀察 AMD 能否建立產業標準的風向球。HPE 已經宣布採用 Helios 架構,但戴爾、聯想、超微等其他伺服器大廠的跟進程度,將決定這個開放平台能否真正挑戰 NVIDIA 的封閉生態。最後是 ROCm 的開發者生態——下載量、GitHub 星數、第三方框架支援這些軟指標,長期來看將決定 AMD 能否打破 CUDA 的鎖定效應。硬體規格可以追趕,但軟體生態的建立需要時間與信任的積累。
台灣供應鏈的受惠與隱憂
從台灣投資人與業界的角度,這場演講還有另一層意義:AMD 的擴張將如何影響台灣供應鏈?
最直接的受惠者是台積電。MI-455X 採用台積電 2 奈米與 3 奈米製程的小晶片設計,Venice CPU 採用 2 奈米製程。隨著 AMD 在資料中心市場的擴張,對台積電先進製程的需求只會增加。台積電已於 2025 年底在高雄廠啟動 2 奈米量產,初期良率據報導已超過 65%,這對 AMD 是好消息。AMD 也已確認是 N2 製程的領先客戶,將用於 Zen 6「Venice」CPU 與 Instinct MI-450 加速器。
但台積電的受惠不只來自 AMD。NVIDIA 的 Rubin 系列同樣需要台積電的先進製程與 CoWoS 封裝。兩大 AI 晶片巨頭的軍備競賽,實際上是台積電的雙贏局面。根據 TrendForce 預測,台積電的 CoWoS 產能將從 2025 年的月產 75,000 片晶圓,擴張到 2026 年底的 120,000-130,000 片。台積電也正在亞利桑那州建設封裝廠,但目前在美國製造的晶圓仍需空運回台灣封裝,成本顯著增加。
CoWoS 先進封裝之外,HBM 記憶體是另一個關鍵瓶頸。MI-455X 採用 HBM4,這種記憶體必須在 CoWoS 製程中與邏輯晶片物理結合。HBM 的主要供應商是 SK 海力士、三星與美光,但封裝整合高度依賴台積電。分析師指出,HBM 正在取代 CoWoS 成為新的供應鏈限制因素。SK 海力士已宣布在美國建設首座 HBM 封裝廠,試圖填補這個缺口。
台灣的其他供應鏈環節也可能受惠。散熱模組方面,Helios 採用液體冷卻,對散熱解決方案的需求將增加。PCB 與載板方面,AI 加速器對高階載板的需求持續成長。伺服器組裝方面,雖然 Helios 是開放架構,但 OEM/ODM 廠商仍需要整合能力來生產完整系統。
然而,台灣供應鏈的集中度也是風險。無論是 AMD 還是 NVIDIA,最先進的 AI 晶片都高度依賴台積電的產能。地緣政治緊張、自然災害、產能競爭都可能成為瓶頸。這也是為什麼美國政府積極推動晶片製造回流,而台積電正在亞利桑那、日本、德國建設新廠。對台灣來說,維持技術領先並分散風險,將是未來幾年的關鍵課題。
結語:佑級願景的成敗關鍵
回顧這場長達兩小時的演講,蘇姿丰傳達的核心訊息其實很簡單:AI 是人類創造過最強大的技術,而 AMD 要讓每個人都能使用它。「AI Everywhere, for Everyone」不只是行銷口號,而是她為 AMD 設定的戰略方向。
從雲端的 Helios 機櫃到邊緣的 Ryzen AI Halo,從醫療藥物研發到月球永久基地,AMD 展示了一個完整的產品與應用生態。但這個願景能否實現,取決於幾個關鍵因素。
首先是執行力。MI-455X 和 Helios 的規格很漂亮,但能否準時量產、良率是否達標、客戶導入是否順利,都需要時間驗證。蘇姿丰說 Helios「完全按計畫進行,將於今年稍晚推出」,這個承諾能否兌現,將是 AMD 信譽的試金石。
其次是軟體生態。硬體效能再強,沒有軟體支援也枉然。AMD 的 ROCm 正在改善,但要追上 NVIDIA CUDA 十多年的積累,需要持續投入與耐心。開放標準是 AMD 的策略優勢,但開放生態的建立需要整個產業的配合,不是 AMD 單方面能決定的。
第三是競爭反應。NVIDIA 不會坐視市佔流失。Vera Rubin 的發布顯示黃仁勳依然在快速推進。兩家公司的技術差距正在縮小,但 NVIDIA 的生態護城河依然深厚。AMD 的機會在於提供「第二選擇」——對於擔心單一供應商依賴的客戶,AMD 是重要的替代方案。OpenAI 選擇 AMD,部分原因可能正是如此。
對於投資人、業界人士、科技愛好者,這場演講的意義各有不同。投資人看到的是 AMD 在 AI 浪潮中的成長潛力與估值空間;業界人士看到的是供應商多元化的機會與挑戰;科技愛好者看到的是運算能力指數級成長帶來的無限可能。
但無論從哪個角度看,有一點是確定的:AI 運算的需求正在以前所未有的速度增長,而能夠滿足這個需求的公司——無論是 AMD、NVIDIA、還是他們的供應鏈夥伴——都將在這個時代扮演關鍵角色。蘇姿丰的佑級願景或許野心勃勃,但在一個 AI 使用者正從十億邁向五十億的世界裡,野心或許正是所需要的。
本文資料來源:AMD CES 2026 主題演講、Tom’s Hardware、Yahoo Finance、TrendForce、TipRanks、SemiAnalysis