為什麼 xAI 被嚴重低估?當 AI 競賽的決勝點從模型轉向電力
Sequoia Capital 合夥人 Shaun Maguire 認為 xAI 是 Elon Musk 旗下最被低估的公司。原因不在模型能力,而在 Elon 對「atoms」的掌控力——當 AI 推論的真正瓶頸是電力而非演算法,掌握物理基礎設施的人就掌握了勝局。
本文整理自 Sourcery Podcast 2026 年 1 月 28 日播出的單集,主持人 Molly O’Shea 訪問 Sequoia Capital 合夥人 Shaun Maguire,談 Elon Musk 的建公司哲學與 xAI 的發展前景。
營收落後,但進展速度被忽略
在 AI 基礎模型公司的排行榜上,xAI 看起來不太起眼。跟 OpenAI、Anthropic、Google 相比,它的營收規模明顯較小。但 Sequoia Capital 合夥人 Shaun Maguire 給出的判斷卻截然相反:xAI 是 Elon Musk 旗下所有公司中「被最嚴重低估」的一家。
Maguire 的論述不是從模型效能出發,而是從一個更根本的問題切入:AI 產業真正的瓶頸到底是什麼?
他的答案是電力。
就算你擁有全世界最好的模型,如果只能服務市場需求的 1% 或 2%,你的成長率和擴張空間就被嚴重限制。這聽起來像一個基礎設施問題,而非演算法問題——因為它確實是。當模型能力不再是最大的差異化因素,能夠把 AI 推論「送到」每一個終端使用者手上的能力,才是真正的護城河。
而這正是 Elon Musk 最擅長的領域。
Atoms 與 Bits 的分野
Maguire 用了一個簡潔的框架來解釋他的觀點:Elon 是全世界最擅長「atoms」的人,而 atoms 將是 AI 競賽的決勝因素。
這裡的 atoms 指的是物理世界的基礎設施——電廠、資料中心、發射系統、衛星網路、製造工廠。相對的,bits 是演算法、模型架構、訓練方法這些純數位層面的東西。
過去兩年,AI 產業的競爭焦點一直在 bits:誰的模型更大、誰的推理能力更強、誰先做到 AGI。但隨著大型語言模型的能力趨於收斂——Maguire 指出,目前最好的模型在數學、物理、電腦科學等領域已經超越頂尖研究所的普通博士生——差異化正在從模型層往下移動,移向那些決定你能不能大規模部署的物理層。
xAI 正在建造全世界最大的連貫訓練集群,但眼下並不急著變現。這在外界看來是營收落後,在 Maguire 看來卻是一個熟悉的節奏——跟 SpaceX 花了將近十年讓 Falcon 9 做到可重複使用、跟 Tesla 花五年建造 Gigafactory 卻不產車,是同一套邏輯。先把基礎設施建到位,再一口氣釋放產能。
AI 大規模 CAPEX 投資為何合理
在訪談中,Maguire 也被問到對 AI 產業大規模資本支出的看法。他的回答很坦誠:一年前他可能會偏向看空,但現在他認為這些投資是合理的。
理由有三。
第一,SpaceX 的 IPO 將在 2026 年創造大量流動性,這些資金會直接流向 AI 公司,讓整個科技產業的資本循環加速。Anthropic 也傳出 2026 年上市計畫,進一步擴大資本池。
第二,AI 模型的經濟價值已經不是理論,而是正在兌現。寫程式是第一個真正商業化的垂直領域,AI 搜尋正在取代傳統搜尋引擎,而 AI 在日常生活中的滲透——從醫療諮詢到教育——已經改變了數億人的行為模式。
第三,也是最關鍵的:當模型能力已經跨過「超越普通博士生」的門檻,接下來的經濟價值將是指數級的。問題不再是「AI 夠不夠聰明」,而是「怎麼把這個聰明送到每一個需要它的人手上」——這又回到了基礎設施和電力的問題。
這就是為什麼 Maguire 對 xAI 如此看好。在一個所有人都在比模型的市場裡,掌握 atoms 的人反而擁有最被低估的優勢。
我的觀察
Atoms vs Bits:AI 產業正在經歷典範轉移
從 2023 年 ChatGPT 引爆生成式 AI 狂潮以來,產業焦點一直放在模型能力的突破——參數量、上下文長度、多模態能力、推理鏈。但進入 2025 下半年到 2026 年,一個明顯的轉向正在發生:AI 競爭的戰場從「誰的模型最好」移向「誰能把算力送到最多地方」。
微軟宣布 2025 年度 AI 基礎設施投資 800 億美元。Meta 計畫興建全球最大的 AI 資料中心。Amazon、Google 也各自投入數百億。這些天文數字的資本支出,本質上都是在解同一個問題:電力和物理空間的限制。
Maguire 的 atoms vs bits 框架,精準捕捉到了這個轉折。當模型能力的邊際改善趨於平緩,而需求端爆發式成長(AI Agent、企業自動化、個人助理),瓶頸就自然從 bits 移向 atoms。誰能蓋更多資料中心、拿到更多電力合約、把延遲壓到更低,誰就能服務更多使用者。
這也解釋了一個有趣的現象:為什麼科技公司開始花大量時間跟電力公司、地方政府、甚至核電廠談判,而不是跟 AI 研究員搶人?因為人才市場的瓶頸正在被電力市場的瓶頸取代。
太空資料中心:瘋狂想法背後的冷靜邏輯
「把資料中心搬到太空」聽起來像科幻小說的情節。但如果拆解 Maguire 的論述,背後的邏輯鏈條其實相當冷靜。
地球上的 AI 資料中心面臨兩個硬限制:電力和法規。蓋一座 GW 級的資料中心,光是電力許可和環評就要跑好幾年,而且很多地方根本沒有多餘的電力容量。與此同時,Starship 一旦進入可靠飛行和可重複使用階段,SpaceX 將擁有遠超市場需求的發射產能——這些多出來的產能需要找到新用途。
太空沒有電力法規問題(太陽能在太空中幾乎是無限的),沒有土地取得問題,沒有冷卻問題(太空的真空環境本身就是最好的散熱介質)。真正的技術挑戰在於:如何在微重力環境下運作高密度伺服器?如何確保衛星與地面之間的頻寬足夠支撐資料中心級別的吞吐量?
這些問題仍然巨大。但 Maguire 的重點在於:如果你是全世界唯一一家同時擁有低成本重複使用火箭、全球衛星通訊網路、和垂直整合製造能力的公司,那你就是唯一有資格認真回答這些問題的人。別人還在畫投影片的階段,SpaceX 已經在算數學了——而且 Maguire 說,數字算出來了,結論是可行的。
這不代表太空資料中心明天就會出現。但它代表的是一個可能性:如果地球上的 AI 算力真的受限於電力和法規,那麼繞過這兩個限制的方式,也許不是去遊說政府或等待核融合,而是往上看 400 公里。