為什麼哈佛教授離開學界去做 AI
Andy Beam 是哈佛公衛學院教授、醫療 AI 先驅,2024 年他選擇離開學界,加入 Lila Sciences 擔任技術長。不是因為學術界不好,而是他想做的問題需要的資源,學界已經提供不了。這是一個關於選擇的故事,也是一面照出 AI 產業現狀的鏡子。
本文整理自《NEJM AI Grand Rounds》2025 年 7 月播出的單集。
2024 年 2 月,Andy Beam 在家休育嬰假。第二個孩子剛出生,這次比第一胎輕鬆太多了——沒有疫情、沒有同時創業、日托沒有關閉。他終於有時間好好想一件事:我真正想做的問題,在學界還做得了嗎?
幾個月後,他從哈佛公衛學院請了留職停薪,加入一家叫 Lila Sciences 的新創公司擔任技術長。
這個決定在當時看起來有點瘋狂。Beam 的學術生涯正在巔峰——有支持他的系所、優秀的學生、穩定的研究經費。他的研究甚至影響過 FDA 的決策。為什麼要離開?
一個完美的學術生涯
Beam 的學術履歷幾乎是教科書範本。北卡州大統計碩士、生物資訊博士,研究貝葉斯神經網路。2014 年到哈佛做博士後,師從醫學資訊學大老 Zak Kohane。博士後期間,他是最早用深度學習解決醫學問題的研究者之一。2019 年,他成為哈佛公衛學院流行病學系的助理教授。
他的實驗室專注於兩件事:一是結合因果推論與深度學習,這在當時是前沿方法論研究;二是新生兒醫學的應用,這是他太太 Kristyn 的專長——她是新生兒科醫師。夫妻倆經常合作研究。
有一個研究特別值得一提。有一種藥叫 17-OHPC,被認為可以預防早產。這是孕婦用藥,影響面很廣。Beam 的團隊用因果推論方法分析保險資料庫,發現這個藥可能根本沒效。後來藥廠必須做的確認性臨床試驗也是陰性。FDA 審查後決定撤銷這個藥的上市許可,引用的關鍵證據之一就是 Beam 團隊的論文。
對一個還沒拿到終身職的助理教授來說,這已經是相當了不起的影響力了。
但有些問題做不了
那為什麼離開?
Beam 在訪談中解釋得很直白:AI 一直是他最想做的事,醫療只是應用領域——一個很重要的沙盒,但終究是沙盒。2019 年他開始教授工作時,GPT-3 還沒出現,在學校的運算叢集上做前沿 AI 研究還是可能的。到了 2024 年,這已經很難成立。
你要訓練一個前沿模型,需要數千張 GPU。一張 H100 的市價大約三萬美元,光是硬體就是數千萬美元的投資。更別說電費、冷卻系統、工程團隊。學校能提供的資源,和業界的差距越來越大。
更根本的問題是:Scaling Law 是殘酷的。每一代模型需要的算力都是上一代的十倍,但改進幅度卻會趨緩。這意味著如果你想做最前沿的研究,你必須一直保持在算力的最前線。落後一個數量級,你就不在遊戲裡了。
Beam 說:「不是學術界沒有有趣的問題。是我想做的問題,剛好需要學術界提供不了的資源。」
這句話的潛台詞是:每個人的效用函數不同。如果你想做的是長期、不急著商業化的基礎研究,學術界還是很好的地方。如果你想做理論——不管是機器學習理論還是其他理論——學術界更是不可替代。但如果你想做的問題需要跟 OpenAI、Anthropic、Google 競爭算力,那你最好不要待在學校。
這不是第一次
其實這不是 Beam 第一次「出走」。在開始哈佛教職之前,他曾經延後一年入職,加入一家叫 Generate:Biomedicines 的新創公司擔任機器學習部門的創始負責人。
那家公司是 Flagship Pioneering 孵化的。Flagship 是一家很特別的創投,他們不是投資外部公司,而是用資金在內部孵化、然後分拆出新公司。Generate 的目標是用機器學習設計蛋白質藥物。Beam 在那裡全職待了一年,之後以「駐點教授」的身分兼職了四年,每週一天。那家公司現在有 300 人、募了超過十億美元、有兩個藥進入臨床試驗。
那次經驗讓 Beam 知道:離開學界做新創,其實是可行的。你可以兩邊都嘗試,不一定要二選一。有這個經驗打底,離開哈佛加入 Lila 的風險就低多了。
Lila Sciences 在做什麼
Lila Sciences 是 Flagship 孵化的第 97 家公司。Beam 之前就一直在當顧問,他的兩個博士生也在那裡工作。但 Flagship 孵化的公司通常會經歷很大的演化——它們會從一個起點開始,然後隨著團隊的探索,可能會變成完全不同的東西。
Beam 關注的問題是:這會是另一家「用 AI 做生技」的公司,還是一家真正的 AI 公司?前者的目標是產出藥物分子,AI 只是手段;後者的目標是推進 AI 本身,應用領域只是驗證場景。
他去 Lila 待了一段時間,見了團隊、了解方向,最後確信這是後者。Lila 的願景是打造「科學超級智慧」——一個能自己提出假說、自己設計實驗、自己執行實驗、然後根據結果更新認知的 AI 系統。
這個願景需要兩樣東西:大規模的 GPU 叢集來訓練模型,以及大規模的自動化實驗平台來生成訓練資料。Beam 把後者比喻成一種新型電腦:實驗板透過磁懸浮在軌道上高速移動,軌道旁邊是各種實驗設備,機器手臂負責操作。那條軌道就像 PCI 匯流排,你可以在上面插各種「裝置」。
Lila 不只是要建幾個這樣的工作站,而是要建整棟大樓的工作站。當這個「實驗叢集」和 GPU 叢集配對,你就得到了一種全新的運算範式——一個能讓 AI 自己產生訓練資料的系統。
這是 Beam 所說的「新 Scaling Law」:現有的 pre-training 已經開始飽和,你需要找到新的東西來 scale。
學界還能做什麼
那學術界在這場競賽中還有什麼角色?Beam 認為有兩個。
第一是評估。當業界不斷推出新的 AI 產品,你需要有人去驗證這些東西到底有沒有用。這件事需要獨立、沒有利益衝突的研究者來做。臨床試驗、真實世界驗證、安全性評估——這些都是學術界的強項,也是必須由學術界來做的事。
第二是實作科學。當 AI 工具越來越強,你需要搞清楚怎麼把它們整合到現有的醫療系統裡。這不只是技術問題,也是流程問題、組織問題、人機互動問題。怎麼讓醫師願意用?怎麼避免自動化偏誤?怎麼設計介面讓人機協作更順暢?這些問題需要長期、細緻的研究,業界通常沒有耐心做。
Beam 說得很清楚:他不是在唱衰學術界。他是在說,不同的問題適合不同的環境。如果你想做的問題剛好需要和 frontier lab 競爭算力,那你最好去有算力的地方。如果你想做的是評估、實作、理論,學術界仍然是最好的選擇。
給年輕研究者的建議
訪談的最後,主持人問 Beam 給臨床醫師的建議。他的答案也適用於任何想跟上 AI 發展的人:
「挑一個前沿模型,每天都用它。」
不是去讀論文、不是去上課程。就是訂閱 ChatGPT 或 Claude,然後在日常生活中用它做各種事。要做食譜?問它。要規劃假期?問它。要做簡報的圖?用它生成。
為什麼?因為這個領域變化太快,沒有任何課程能讓你跟上。但當你每天都在用這些工具,你會自然地建立起直覺——它能做什麼、不能做什麼、什麼時候會產生幻覺、什麼時候可以信任。這種「實作中學習」比任何理論都有用。
你不需要懂 Transformer 的數學,不需要讀 RLHF 的論文。你需要的是肌肉記憶。
Beam 的故事不是「學術界完蛋了」的故事。它是一個關於選擇的故事:當你清楚自己想做什麼,你就能清楚地評估哪個環境最適合你。
對他來說,那個環境剛好不在學校。
「我有一份很棒的工作,」他說,「技術上我現在還有,因為我只是留職停薪。但當我誠實面對自己,我想做的問題在學術界已經做不了了。」
這種誠實,可能是他職涯中做過最重要的事。