4.75 億美元的賭注:為什麼這位連續創業家要重新發明 AI 運算?
Unconventional AI 創辦人 Naveen Rao 認為,目前的 AI 晶片距離理論效率極限差了 10 億倍,而人腦只差 10 倍。他募資 4.75 億美元,要用物理學重新定義運算的基礎。
本文整理自 Lightspeed Venture Partners 的 Investment Memo 系列訪談。
矽谷最成功的 AI 硬體連續創業家
在介紹這次募資之前,先說說 Naveen Rao 是誰——因為他的履歷本身就是一部 AI 硬體產業的發展史。
Rao 在 Duke 大學拿到電機與資訊工程學位後,先在 Sun Microsystems 參與了 UltraSPARC 處理器的設計。那是 1990 年代末期,Sun、DEC Alpha、SGI 這些名字代表著運算創新的最前沿。在那裡,他學會了如何從頭打造一顆晶片。
但 Rao 心中一直有個執念:人腦只用 20 瓦就能運作,為什麼電腦做不到?
為了追尋這個問題,他在 30 歲、已經有小孩的情況下,辭去矽谷的高薪工作,回到 Brown 大學攻讀計算神經科學博士。他學了神經外科手術、訓練猴子做實驗、研究神經元的生物物理特性。家人都覺得他瘋了。
2014 年,Rao 創辦了 Nervana Systems——史上第一家 AI 晶片新創公司。當時沒有創投願意投硬體,機器學習還是學術界的冷門領域,他的 Series A 只募到 330 萬美元。兩年後,Intel 以約 4 億美元收購 Nervana,Rao 成為 Intel 人工智慧產品事業部的副總裁。
2020 年,Rao 離開 Intel,再次創業。這次他找來哈佛的 Jonathan Frankle(彩券假說論文的作者)和老戰友湯漢林(Hanlin Tang),共同創辦 Mosaic ML。三年後,Databricks 以 13 億美元收購這家只有 62 人的公司,創下當時 AI 領域的最高收購紀錄。
現在,Rao 成立了他的第三家公司 Unconventional AI,募資 4.75 億美元,估值 45 億美元。他要做的事情比前兩次都更瘋狂:從根本重新定義 AI 運算該怎麼做。
臺灣之子:湯漢林的矽谷之路
說到 Mosaic ML,就不能不提湯漢林(Hanlin Tang)。
他是 Mosaic ML 的共同創辦人兼技術長,也是 Nervana Systems 的核心成員。但對臺灣讀者來說,他還有另一個身份:長庚大學校長、臺大企管名師湯明哲的大兒子。
湯漢林在普林斯頓大學念物理,之後到哈佛攻讀生物物理學博士。透過實驗室同事的介紹,他加入了 Rao 的 Nervana Systems。2016 年 Nervana 被 Intel 收購後,他擔任 Intel AI 實驗室的高級總監。後來 Rao 決定再次創業,湯漢林跟著出來,擔任 Mosaic ML 的技術長。
2023 年 Databricks 收購 Mosaic ML 時,湯明哲對媒體分析兒子成功的原因:這個團隊在硬體公司 Intel 待過,又有寫軟體的能力,知道怎樣的軟體能充分發揮硬體的功能。「軟硬結合是公司建立競爭力的基礎。」
湯漢林自己則說:「如果你擁有了一項非常好的技術,成功的機會將大大增加,因為這是其他人很難複製的東西;然後就是人才。這兩者的結合,幫助我們取得了 AI 創業的成功。」
有趣的是,湯明哲從小就用「床邊故事」的方式跟孩子討論企業案例。湯漢林印象最深的是一個鋼鐵廠的故事——那其實是湯明哲的博士論文內容。雖然細節已經模糊,但這種從小培養的思考習慣,顯然內化成了他深思熟慮、喜歡多元嘗試的特質。
一個令人震驚的效率差距
回到 Rao 的新公司。他在訪談中提出一個驚人的對比:
如果把 NVIDIA 最新的 B200 GPU 拿來跟運算的理論效率極限(Landauer limit)相比,差距是多少?
答案是:9 到 10 個數量級——也就是 10 億到 100 億倍。
那人腦呢?只差 1 個數量級。
進化用幾十億年達到的效率,我們的最先進晶片差了 10 億倍。這就是 Rao 要解決的問題。
史無前例的運算格局
Rao 指出,我們正處在一個前所未有的時代:
「在接下來 3 到 5 年內,80% 以上的運算都會是同一種工作負載。這是史無前例的。」
過去 60 年的運算歷史中,CPU 之所以是通用架構,是因為工作負載極度多元——從資料庫到物理模擬到加密運算。沒有任何單一應用佔據過顯著的運算份額。
但現在不同了。AI 正在吞噬一切。再過幾年,90%、甚至 99% 的新增運算週期都會是在跑神經網路。
這帶來一個根本性的問題:我們拿一個為「多樣化工作負載」設計的通用平台,去跑一個「單一同質化」的工作負載。這就像用瑞士刀去砍樹——什麼都能做一點,但什麼都做不好。
為什麼不是做更好的 GPU?
市面上已經有很多 AI 晶片新創,Rao 自己的 Nervana 就是其中之一。但他認為,這些努力都還在同一個框架內:
「目前所有 AI 加速器公司做的事,本質上還是『我怎麼讓矩陣乘法更有效率』。」
問題是,人腦根本不是在做矩陣乘法。大腦不是在模擬神經網路——它直接就是神經網路,用物理特性來實現運算,而非用數位電路去模擬。
Rao 的新公司叫 Unconventional AI,名字就說明了一切:他要用「非傳統」的方式來做 AI 運算。具體來說,是利用矽的物理特性——動態系統(dynamical systems)——來直接實現類神經網路的行為,而不是用數位電路去模擬它。
給自己的三道約束
聽起來很瘋狂?Rao 自己也承認,這種想法很容易變成漫無邊際的學術探索。所以他給自己設了三道約束:
第一,時間約束:5 年內要能落地。
「能源限制在 5 年內就會打到我們。我們必須準備好解決方案。」
這意味著不能等 10 年、20 年的基礎研究。產品必須在能源危機真正爆發前上市。
第二,製造約束:必須用現有的矽製程。
不能發明全新的材料或裝置,那需要 100 億美元的晶圓廠和無盡的材料科學研究。必須用現有的矽製造能力,一旦技術成熟就能直接放進供應鏈。
第三,目標約束:1000 倍效率提升,不是 100 億倍。
理論上可以追求 100 億倍的效率提升,但那需要從物理層開始發明全新的東西。務實的目標是 1000 倍——這已經足夠改變遊戲規則,又在工程可及的範圍內。
4.75 億美元要做什麼?
Rao 把這筆錢比喻為 OpenAI 在 2016-17 年的狀態:
「我們沒有技術信仰。任何有機會成功的東西,我們都會試。」
就像 OpenAI 每年花 40-50 億美元在 GPU 上,大部分不是訓練最終模型,而是試錯和迭代。Unconventional AI 也需要大量實驗:設計電路、做模擬、製造原型、測試、學習、再來一次。
這也是為什麼需要跨領域的專家團隊。問題是,懂電路的人不懂 AI,懂 AI 的人不懂電路。Rao 說他每天最大的挑戰就是讓這些專家能互相溝通:
「這就像在同時管理貓、松鼠和青蛙。」
為什麼是現在?
從創投的角度,這筆投資的風險輪廓很特別:只有技術風險,沒有市場風險。
市場已經在那裡了。全世界都在搶著蓋資料中心,但蓋到一半發現拿不到電。如果有人能用同樣的電力跑 1000 倍的 AI 運算,市場會自己把產品從你手上搶走。
Lightspeed 的合夥人 Guru Chahal 這樣形容:
「我們正在把原本可能需要 10 年、20 年的研究,壓縮到 1-2 年內完成。」
這就是創業和學術研究的差別。學術界有很多人在做類似的探索,但預算少、人員散、進度慢。集中資源、找頂尖的人、給他們需要的一切——這是加速創新的方式。
我的觀察
這篇訪談讓我想到一個更大的問題:AI 時代的「基礎設施」到底該長什麼樣子?
我們現在的 AI 基礎設施,本質上是把 30 年前為遊戲設計的 GPU,加上 40 年前為多樣化工作負載設計的運算範式,硬湊在一起用。它能動,但效率差到離譜。
Rao 的嘗試讓我想到三件事:
第一,「效率」在 AI 時代的意義完全不同。
過去我們談效率,可能是省 10%、20% 的成本。但當差距是 10 億倍的時候,「效率」變成了生存問題。不解決這個問題,AI 的發展會直接撞上物理的牆。
第二,最大的機會往往藏在「大家都覺得不可能」的地方。
2014 年 Rao 去募資做 AI 晶片,創投說「我們 10 年沒看過硬體案子了」。現在全球最大的公司是 NVIDIA。當所有人都在優化現有路徑時,敢於質疑整個前提的人,才有機會創造真正的突破。
第三,約束是創新的朋友。
Rao 沒有說「我要做出跟人腦一樣有效率的東西」,他說「我要在 5 年內、用現有製程、做到 1000 倍提升」。這種自我約束把一個天馬行空的願景,變成了一個可以執行的工程計畫。
如果 Unconventional AI 成功,它改變的不只是 AI 晶片市場,而是整個運算產業的基礎假設。這是一場豪賭,但賭對了,回報會是歷史級的。
對臺灣讀者來說,Rao 的故事還有一層意義:他兩次創業的核心夥伴湯漢林,正是臺灣培養出來的人才。從 Nervana 到 Mosaic ML,這對搭檔證明了「懂硬體又懂軟體」的稀缺價值。在 AI 運算即將撞上能源牆的時代,這種跨領域整合能力會變得更加珍貴。