「AI 已經贏了」:普林斯頓高等研究院一場閉門會議,讓頂尖科學家集體震撼
哥倫比亞大學天文物理學副教授 David Kipping 意外參加普林斯頓高等研究院的一場 AI 閉門會議後深受震撼。與會的頂尖科學家一致承認:AI 在寫程式上已達到對人類的完全霸權,在數學推理和問題解決上也達到甚至超越他們的水準。這不是矽谷的炒作,而是地球上最聰明一群人的共識。

本文整理自 Cool Worlds Podcast 2026 年 2 月播出的單集。
一場「不該公開」的會議
兩天前,我參加了一場可能是我這輩子最具衝擊力的科學會議。哥倫比亞大學天文物理學副教授 David Kipping 在他的 Podcast 節目 Cool Worlds 第 30 集開場,用這句話定下了整集的基調。這不是他平常做的那種訪談節目,而是一集罕見的 solo episode,因為他覺得自己剛經歷的事情太重要,必須立刻記錄下來。
那場會議發生在普林斯頓高等研究院(Institute for Advanced Study,簡稱 IAS)。這個名字你可能不熟悉,但說到它的「住客」你一定認識:愛因斯坦在這裡度過了人生最後二十年,歐本海默在這裡擔任了二十年院長,弦論之父 Ed Witten 現在還在這裡。IAS 不隸屬於普林斯頓大學,它是一個獨立的研究機構,成立近百年來,只做一件事:讓地球上最聰明的人不受干擾地自由思考。走在 IAS 的走廊上,你隨時可能跟菲爾茲獎得主擦肩而過。
Kipping 原本到普林斯頓是去做天文學演講的,結束後順道去 IAS 拜訪。那天早上十一點,有一場由資深天體物理學家主持的內部咖啡會議,主題是 AI 對科學的影響。這不是一個對外公開的活動,Kipping 的出席純屬意外。但這場會議的內容,讓他在開車回紐約的路上完全無法停止思考。
在場的不是矽谷布道者,是最頂尖的科學家
在進入會議內容之前,先介紹一下 Kipping 這個人,因為理解他的背景,才能理解這件事的份量。
David Kipping 是哥倫比亞大學天文學系副教授,也是 Cool Worlds Lab 的創辦人。他在劍橋大學拿到學士和碩士,倫敦大學學院拿到物理與天文學博士,之後在哈佛擔任 NASA 卡爾.薩根研究員。他的主要研究領域是系外行星與系外衛星,他主導的 HEK 計畫(Hunt for Exomoons with Kepler)是人類史上第一個系統性搜尋太陽系外衛星的研究項目,2018 年在 Science Advances 上發表了第一個系外衛星候選者的證據。在學術研究之外,他經營的 Cool Worlds YouTube 頻道有超過 75 萬訂閱者,是天文物理學界最有影響力的科普頻道之一。
Cool Worlds Podcast 則是他 2023 年開始的長篇對談節目,來賓包括哲學家 Nick Bostrom、PBS Spacetime 主持人 Matt O’Dowd 等各領域頂尖學者。第 30 集是節目首次的 solo episode,Kipping 打破慣例獨自錄製,可見這場 IAS 會議對他的衝擊有多大。
而 Kipping 在節目中反覆強調的一點是:在場的人不是矽谷科技創業家,不是億萬富翁,不是在兜售 AI 夢想的人。他們是畢生靠分析思考、數學推導、抽象思維建立學術生涯的純粹科學家。他們對 AI 的判斷,沒有利益動機,只有對事實的觀察。
全場無人反對:AI 在寫程式上已經達到「完全霸權」
會議由一位 IAS 的資深天體物理學家主持(Kipping 為保護對方身份未透露姓名),前三十到四十分鐘,這位教授展示了他如何使用 Claude、Cursor 和 ChatGPT 等 AI 工具進行研究。他秀出多個僅靠幾個 prompt 就完成的研究項目,成果達到可以發表學術論文的水準。
接著,會議丟出了第一顆震撼彈:AI 模型在軟體開發上已經達到對人類的「完全霸權」(complete coding supremacy)。
Kipping 說,這件事他自己心裡其實早已有數,但聽到它被大聲說出來,仍然讓他感到不安。要知道,在場的天體物理學家雖然不以軟體開發為職業,但他們的日常工作高度依賴程式設計。宇宙學中的大型模擬,像是 Enzo、IllustrisTNG、GADGET 這些流體動力學模擬,涉及自適應網格、大規模並行運算,都是極度精密的軟體工程。在場的人不是業餘程式設計師,他們是最頂尖的科學計算開發者。但面對這個問題,沒有任何一隻手舉起來表示反對。全場的共識是:AI 不只是比人強,而是「數量級的優勢」(order of magnitude superior)。
更令人不安的是,這不只限於寫程式。會議中也有人承認,在分析推理、數學解題、問題解決這些能力上,AI 至少已經跟在場這些人的水準相當,甚至可能已經超過。Kipping 自己也有親身體驗:他最近在做一組數學推導時,Mathematica(由數學天才 Stephen Wolfram 開發的專業符號運算軟體)解不出來的一個積分,ChatGPT 5.2 不但解出來了,還附上了完整的推導過程,包括每一步的替換和重排。Mathematica 只會給你最終答案,ChatGPT 給你的是整條思考路徑。
那位主持會議的資深教授做了一個更直接的自我評估:這些 AI 模型,在廣義的智識層面上,已經能做到他自己大約 90% 能做的事。他說那個數字可能是 60%,也可能是 99%,但毫無疑問已經超過一半,而且只會繼續成長。
把數位生活全部交給 AI:隱私換效率的極端選擇
能力上的承認只是第一步。更讓 Kipping 震驚的,是這些頂尖科學家在行為上的選擇。
那位主持會議的教授已經把自己的整個數位生活交給了 agentic AI。電子郵件、檔案系統、行事曆、電腦的完整存取權限,全部交出去了,等於是把 Unix 系統中的 super user 權限交給了 AI。當主持人舉手調查時,大約三分之一的在場人員表示也已經安裝了這類 agentic AI 系統。
有人問他:你不擔心隱私嗎?你看過這些服務的隱私條款嗎?他的回答很直接:我不在乎。AI 帶給我的優勢太大了,大到隱私問題變得無關緊要。
這個態度延伸到了倫理議題。當被問到 AI 對就業、氣候、能源消耗的衝擊時,這位教授的立場同樣明確:我知道這些問題存在,但我不在乎,因為優勢太巨大了。Kipping 用了一個很精準的詞來形容這種態度:「倫理靠邊站」(ethics be damned)。他強調這不是一個孤立的極端觀點,在場的人基本上都認同。
但 IAS 不是在抗拒這股浪潮,而是在主動擁抱它。這場會議的目的之一,就是要成立一個工作小組,幫助所有有意願的研究人員快速上手 agentic AI,包括怎麼安裝、怎麼設定 prompt、怎麼建立工作流。這不是機構的官方政策,而是學者們自發組織的加速採用行動。
禁果比喻:一旦摘了,就回不去了
會議中被反覆討論的一個核心焦慮,是技能萎縮(skill atrophy)。
Kipping 用了一個很直覺的類比:GPS。回想十五到二十年前,在我們口袋裡的手機還不能導航的時候,多數人對城市街道有一個立體的心理地圖。但自從有了導航 app,我們就把方向感外包出去了。開車的時候不用再思考路線,可以想別的事,可以放空。時間一久,你會發現自己已經不太記得怎麼從 A 到 B。
AI 對科學家的影響是同一個邏輯,但衝擊更深。寫程式的技能已經在萎縮了,這是現在進行式。數學推導、分析推理、問題解決的能力呢?當你可以把問題定義好、拆解成模組、丟給 agentic AI 去跑,你需要的不再是自己解題的能力,而是管理和拆解問題的能力。這聽起來像是升級,但代價是你逐漸忘記怎麼自己動手。
Kipping 把這個處境比作亞當和夏娃摘禁果。AI 公司就是那條蛇,引誘你伸手去拿。一旦你摘了那顆蘋果,你就失去了天真。因為技能萎縮是不可逆的,你不可能在依賴 AI 三年之後,還能回到原本的程式設計水準。但你不摘呢?IAS 不用這些系統,普林斯頓不用,哥倫比亞不用,那他們在接下來的科學發現雪崩中就會被甩在後面。所以採用是某種程度上的「不得不然」。
這裡有一個配套的討論:AI fluency(AI 流暢度)。那位主持會議的教授承認,他花了大量時間在試錯上才學會怎麼有效使用這些工具。第一次用通常會很挫折,輸出的結果一塌糊塗,你會覺得自己做還比較快。但如果你願意投入時間建立工作流、學會怎麼設定 prompt、怎麼拆解問題讓 AI 更好地處理,回報是巨大的。換句話說,現在就開始投入的人,會跟後來者拉開一段不小的差距。
人類監督正在淡出:從逐行檢查到放手讓 AI 跑
會議中反覆被提醒的一件事是:AI 的輸出仍然需要人類檢查。模型會幻覺、會犯錯,你得看圖表、檢查程式碼片段、跟 AI 討論結果、自己也要動腦想想。人類的大腦還沒有完全退場,只是角色變了,變得更像導師、顧問、管理者,而不是親手解題的人。
但 Kipping 觀察到一個令人擔憂的趨勢:人類監督的程度正在下降。那位教授一開始偏好用 Cursor,因為它會顯示程式碼的逐行修改(diff),你可以清楚看到 AI 改了什麼。但隨著他對模型的信任度提高,他開始覺得這種透明性反而是一種阻礙。他轉向使用 Claude,因為 Claude 的 sub-agent 架構可以同時處理問題的多個面向,速度更快,需要的 prompt 更少,只是過程中發生了什麼比較不透明。
換句話說,他從「我要看到每一步」走到了「我相信它,讓它跑」。把這個趨勢延伸下去,人類監督這件事本身還能持續多久,是一個開放的問題。
AI 時代的科學家,需要什麼新能力?
傳統上,在物理學和天文物理學這種高度技術性的學科裡,占優勢的人通常有一些共同特質:超強的數學直覺、出色的程式設計能力、能從抽象理論推導出精確預測。但 AI 正在把這些技術優勢全部拉平。
如果模型能寫出比你更好的程式、能解出比你更難的方程式,那未來在科學界勝出的人會是什麼樣的人?Kipping 的觀察是:管理能力、拆解問題的能力、以及耐心。
你的角色從「解題者」變成了「問題定義者和結果審核者」,這本質上是管理工作。而目前的 AI 模型在處理大型、模糊的問題時仍然表現不佳,你得把一個大問題切成模組化的小任務,逐一餵給模型,效果才會好。至於耐心,這是一個被低估的因素。AI 模型的介面設計得像跟人對話,所以當它反覆犯蠢、不理解你的意思時,你很容易情緒上頭。那位主持會議的教授自己也承認,他曾經花好幾個小時對著鍵盤用全大寫字母吼 AI。但發脾氣對產出毫無幫助,控制情緒反而成了一種重要的工作技能。
反過來,誰會在這個新世界裡吃虧?Kipping 認為,首先是早期職涯的科學家。從產業界的趨勢來看,實習和初階職位正在蒸發,因為企業發現用 AI 比請人便宜太多。這個邏輯遲早會蔓延到學術界。
一年級博士生的專題,AI 幾個 prompt 就做完了
Kipping 身為帶研究生的教授,對這一點感受特別直接。他描述了一個所有學術圈都熟悉的循環:每年有一批新的博士生入學,第一年的他們幾乎什麼都不會,你得從基礎開始一個一個教。這個過程需要每週好幾個小時的一對一會議,持續五年。到了第五年,那個一年級時一臉茫然的學生已經變成了一個可以跟你平等討論的成熟科學家。這個轉化過程是學術界最有成就感的事之一。
但 AI 正在動搖這個模式的經濟邏輯。Kipping 通常會給一年級博士生一個「輕量級」的研究專題,他自己可能一個月就能做完,但他會讓學生花一整年來完成,目的是讓學生在過程中學會怎麼做研究。現在,這類專題 AI 只需要幾個 prompt 就能搞定。
成本的對比更加殘酷。在美國頂尖大學,一個研究生的年度成本大約是十萬美元,包含薪資、健保、學費。AI 訂閱費?一個月二十美元。而且在聯邦研究經費正在被大幅削減的當下,這種成本差距只會讓壓力更大。
Kipping 很誠實地說,他不是在主張應該停止招收研究生。但他能想像有人會提出一個反駁:如果五年後人類科學家這個職業根本不存在了,那你花五年培養一個人類科學家,這件事本身就是徒勞的。他不認同這個論點,但他承認這個論點有它的邏輯。
用 AI 做招生、拒絕不用 AI 的學生?
這個焦慮延伸到了研究生招生。哥倫比亞大學天文學系每年收到大約四百份申請,最終錄取四到五個人,錄取率大約 1%。從四百份裡挑出最有潛力的人,是一項極度耗時的工作,而且教授們對「什麼樣的學生最好」永遠沒有共識。有人看重合作能力,有人看重技術實力,有人看重溝通能力,有人看重研究經驗。
那位主持會議的教授已經在用 AI 輔助招生了。他說這是他做過最快、最準確的一次招生審查。當然,在光譜的另一端,申請者肯定也在用 AI 潤飾申請文件,特別是英語非母語的國際學生。
但 Kipping 提出了一個更深層的問題:我們現在的招生標準,基本上跟過去一百年沒什麼變化。但博士學程是五年,五年後的科學研究環境已經完全不同了。我們用今天的標準挑出來的學生,真的適合五年後的世界嗎?
他甚至坦白地分享了一個他仍在消化中的想法:如果有個學生完全拒絕使用 AI,他不確定自己還會不會同意指導這個學生。這讓他自己都有點不舒服,但他的邏輯是:不用 AI 做研究,就像拒絕使用網路或拒絕寫程式一樣,等於自己綁了兩隻手。
當人人都能做科學:民主化的光明與論文海嘯的陰影
AI 對科學的衝擊不只發生在象牙塔內部。Kipping 指出一個正在浮現的趨勢:科學的民主化。
傳統上,做天文物理學研究需要經過嚴格的學術訓練,從大學到碩士到博士到博士後,層層篩選,最後留下的是一小群高度專業化的人。但如果 AI 能以每月二十美元的價格提供相當於資深科學家 90% 的智識能力,那任何人只要有好的想法,都可以開始做研究。Kipping 經常收到觀眾寄來的研究構想,他以前沒時間一一回應。但現在他想說:你不需要我了。你可以直接跟 AI 合作,產出品質可能跟我差不多的論文。
這聽起來很美好,但 Kipping 立刻指出了陰暗面。如果每個人都能做研究,而且資深科學家的產能也因為 AI 而翻了三四倍,那科學論文的數量會爆炸。天文學的預印本資料庫 arXiv 每天已經有幾十篇新論文,多數人只能掃一眼標題和摘要就過了。如果論文量再增加一到兩個數量級呢?你當然可以說「用 AI 來讀」,但那又是另一層的外包。科學家自己如果連最新研究都無法消化,科學還是科學嗎?
成本問題也值得警惕。AI 現在很便宜,但 AI 公司投入的資金規模是史無前例的。Kipping 引用了一個數據:自 2014 年以來,頂尖 AI 公司累計吸收的投資金額,已經超過整個阿波羅計畫的五倍(經通膨調整),超過曼哈頓計畫的五十倍。這些錢必須回收。怎麼回收?可能是漲價,等你上癮之後再抽高訂閱費。也可能是分潤,午餐時有人討論到一種可能的商業模式:AI 公司推出「研究級」訂閱方案,條件是你用 AI 產出的研究成果,公司要分走一定比例的智慧財產權。
如果這個模式成真,那些科技億萬富翁承諾的「豐饒時代」,便宜的能源、免費的藥物,邏輯上就說不通了。你不可能一邊要回收數兆美元的投資,一邊把成果免費送給全世界。
合作關係的萎縮與終身職教授的最後堡壘
AI 還可能改變科學家之間的合作模式。做研究的人都知道,你經常需要找其他專長的人幫忙。比方說 Kipping 可能需要一段 N 體動力學的模擬程式,他得寫信給動力學家、約 Zoom 會議、來回討論好幾輪。如果需求很小,只是一個簡單的計算或一小段程式碼,這種合作的「啟動成本」就顯得過高。AI 可以直接填補這些小需求,結果可能是合作關係萎縮到只剩核心團隊,甚至出現更多單一作者論文。
至於終身職教授?他們可能是最後一批被影響的人。會議中和會後的私下談話都提到了這一點:如果有誰要被取代,終身職教授會是最後離開的。這是終身職制度的本質,你得把制度本身廢掉才能動他們。但 Kipping 也坦承,他做 YouTube 科普的這份工作反而可能是最先被取代的,因為 AI 已經能生成高品質的教育內容。
他也提到一個有趣的觀察:IAS 的學者們對於「大眾會不會排斥 AI 生成的研究」這件事,幾乎沒有意識。對他們來說,如果 AI 的能力已經跟自己相當甚至更強,那 AI 輔助的科學就不存在「不夠正當」的問題。這跟 Kipping 自己經營 YouTube 頻道所感受到的強烈反彈形成了鮮明對比。他的觀眾只要看到 AI 生成的縮圖就會留言抗議「AI 垃圾」,但 IAS 的人壓根沒在想這件事。
如果人類被排除在發現之外,科學還有意義嗎?
Kipping 在節目最後的語氣明顯沉了下來。
他問了一個很根本的問題:我們為什麼做科學?對很多非科學家來說,科學是為了實用,為了治病、為了新能源、為了更好的技術。但對 Kipping 來說,科學的意義在於參與其中。他把做科學比作看偵探劇:你不會先看結局再倒回去看過程,因為追查線索、自己推理、最後恍然大悟的那個過程,才是最有價值的部分。
如果 AI 把科學家變成了純粹的結果審核員,甚至連審核都被 AI 取代了,那人類在科學中的角色是什麼?如果有一天超級智慧產出了一個可運作的核融合反應爐,但沒有任何人類能理解它為什麼可以運作,那我們活在一個什麼樣的世界裡?
Kipping 把科學類比為藝術。AI 可以生成畫作、音樂、文字,而且水準越來越高。但當你走進美術館,最打動你的從來不是技術水準最高的那幅畫,而是背後有一個人類故事的那幅。科學也一樣。一個定理之所以美,不只是因為它是正確的,更因為有一個人花了十年去追尋它。如果那個人類的追尋過程消失了,正確的定理就只是一個冰冷的事實。
他用一句話收尾:「我想活在一個我能理解的世界裡,一個可理解的世界。」
那場會議裡有位歷史學家(透過視訊參加)說了一句讓全場安靜了一下的話:我們應該記錄正在發生的事。因為這是一個歷史性的時刻。Kipping 說,這就是他錄這集 Podcast 的原因。不是因為他有答案,而是因為他想在五年後回看時,能知道 2026 年 1 月站在這個十字路口的科學家們,到底在想什麼。
我的觀察
這集 Podcast 最讓我在意的,不是 AI 有多強。到了 2026 年,AI 能寫出比多數人更好的程式碼、能解微積分、能做研究,這些已經不算新聞了。真正讓我停下來想的,是說這些話的人是誰。
矽谷的人說 AI 很厲害,你心裡會打個折扣,因為他們有利益在裡面。但當普林斯頓高等研究院的物理學家,那些一輩子靠智力吃飯的人,公開承認 AI 在多個維度上已經追平甚至超過自己的能力,這件事的份量完全不同。他們沒有 AI 公司的股票,沒有要賣你訂閱方案,他們只是在面對一個事實。
Kipping 的禁果比喻我覺得格外精準。臺灣的學術界目前在 AI 採用上還相對保守,很多教授仍然禁止學生使用 AI 做報告或寫程式。但 IAS 的經驗告訴我們:全球最頂尖的研究機構已經不是在辯論「該不該用」了,他們在討論的是「怎麼加速採用」和「怎麼管理技能萎縮的風險」。如果臺灣的學術機構還停留在前一個問題,差距只會越來越大。
不過 Kipping 最後那段關於科學意義的反思,我覺得不只適用於科學家。所有知識工作者,從記者到工程師到分析師,大概都會在某個時刻問自己同樣的問題:如果 AI 能做我八九成的工作,那我存在的意義是什麼?這個問題沒有標準答案,但至少 IAS 的故事提醒我們:連地球上最聰明的人,都還在找。