從圖書館到 ChatGPT:取得知識的成本正在歸零
OpenAI o1 共同創作者 Jason Wei 用一個問題說明 AI 時代的變化:1983 年釜山有多少對新人結婚?這個問題在不同時代的回答成本,從幾天壓縮到幾分鐘。當知識取得成本趨近於零,什麼會變得更有價值?
本文整理自 Stanford AI Club 2025 年的演講。
1983 年,韓國釜山有多少對新人結婚?
這個問題看起來很無聊,但 Jason Wei 用它來說明一件大事:取得知識的成本正在經歷歷史性的崩塌。
Jason Wei 是 OpenAI o1 和 Deep Research 的共同創作者,學術引用超過 9 萬次。在 Stanford AI Club 的演講中,他提出了「智慧商品化」的概念。核心主張很簡單:一旦 AI 能做某件事,做那件事的成本會被快速壓到趨近於零。
知識取得就是最明顯的例子。
四個時代的成本變化
讓我們回到釜山結婚人數這個問題。
前網路時代:如果你住在美國,你得先買機票飛到韓國。然後找到政府的統計圖書館,可能在首爾。接著你得用韓文(假設你會)在紙本檔案中翻找 1983 年的人口統計資料。整個過程可能花掉你好幾天,外加機票錢。
網路時代:好一點了。你可以在家用 Google 搜尋。但問題是,這種細節資料可能只存在韓文網站上。如果你不會韓文,你得找人幫忙翻譯,或者用當時很爛的機器翻譯猜半天。整個過程可能要幾個小時。
聊天機器人時代:再快一點。你可以問 ChatGPT,它可能會給你一個看起來合理的數字。但問題是,這種冷門資料它可能沒有訓練到,或者根本是編的。你還是得自己去驗證。
Agent 時代:這是現在正在發生的事。Jason Wei 說,OpenAI 的 Operator 可以在幾分鐘內找到這個答案。因為它能實際操作韓國統計資料庫 KOSIS 的介面——點選年份、選擇城市、找到婚姻統計欄位。這不是從記憶中提取資訊,而是像人類一樣去查資料。
幾天、幾小時、幾分鐘、幾秒。這就是知識取得成本的壓縮曲線。
BrowseComp:當 AI 的搜尋能力超越人類
Jason Wei 提到 OpenAI 做的一個測試叫 BrowseComp(瀏覽競賽)。這個測試的設計很聰明:題目都是「答案存在於網路上,但很難找到」的問題。
比如:這裡有一場足球賽的十個特徵描述,找出是哪場比賽。
這種題目,答案一旦找到就很容易驗證(就是那場比賽,對或錯),但過程極其費時。你得搜尋、交叉比對、篩選掉不符合的候選。
OpenAI 找了一群人類來做這些題目。結果發現,很多題目人類在兩個小時內根本解不出來。但 Deep Research 模型可以解出大約一半。
這代表什麼?在某些類型的資訊檢索任務上,AI 已經比人類更有效率。不是因為它更聰明,而是因為它可以同時處理大量網頁、不會累、不會分心、可以用任何語言搜尋。
即時知識的三個影響
Jason Wei 列了幾個他認為「知識即時化」會帶來的影響:
第一,知識門檻保護的領域會被民主化。
過去,很多領域之所以難以進入,是因為有大量專業知識要學。你想自己研究健康問題?先讀十年醫學。你想自己寫程式?先學三年 Computer Science。
但如果知識取得成本趨近於零,這些門檻就變得不那麼重要了。你可以隨時問 AI,它會給你相當於專業人士水準的答案。寫程式已經是最明顯的例子——很多人現在用 AI 輔助寫出他們原本寫不出來的程式。個人健康管理可能是下一個。
第二,公開資訊貶值,私有資訊升值。
這是一個相對效應。當所有人都能瞬間取得公開資訊時,公開資訊的價值就下降了。反過來說,那些「不在網路上」的私有資訊就變得相對更有價值。
Jason Wei 舉的例子是房地產:如果你知道哪些房子沒有掛牌但屋主願意賣,這個資訊現在比以前更值錢。因為公開掛牌的房子,AI 可以幫每個人分析得一清二楚。
第三,個人化網路正在成形。
以前我們都在用同一個網路。Google 搜尋結果大致相同(除了一點個人化),維基百科人人看的都一樣。
但 Jason Wei 認為,未來每個人會有自己的「個人化網路」。你想知道什麼,就會有一個專門為你生成的頁面來回答。不是從現有網頁中挑選,而是根據你的問題即時合成。
這聽起來有點像科幻,但其實已經在發生了。當你問 ChatGPT 一個問題時,它給你的答案就是「為你生成」的,不是從某個網頁複製的。
智慧也在商品化
知識只是第一步。Jason Wei 認為更大的趨勢是「智慧本身」正在商品化。
他用 MMLU(一個常見的 AI 評測基準)來舉例。過去五年,達到某個 MMLU 分數所需的成本每年都在急遽下降。去年要花一塊美金的智慧量,今年可能只要幾分錢。
原因是什麼?他指出關鍵在於「自適應運算」(Adaptive Compute),也就是 o1 開創的推理時運算技術。
過去的 AI 有個奇怪的特性:不管問題有多簡單或複雜,消耗的運算量都一樣。問加州首府是什麼,和問一道 IMO 數學題,成本差不多。這就像不管你要搬一張紙還是一台鋼琴,都派同樣的卡車和人力一樣荒謬。
但 o1 之後,模型可以根據問題難度調整思考時間。簡單問題快速解決,困難問題花更多運算。這意味著簡單任務的成本可以被壓到極低,而困難任務則可以透過堆疊運算來解決。
這個趨勢的終點是什麼?Jason Wei 沒有明說,但邏輯很清楚:當智慧的邊際成本趨近於零時,瓶頸就會轉移到其他地方——可能是創意、可能是判斷力、可能是人與人之間的信任。
那些不會因為 AI 而貶值的東西,反而會變得更珍貴。