AI 安全與治理

楊立昆:AI 最大風險不是滅絕人類,是少數公司壟斷你的資訊食糧

圖靈獎得主楊立昆在達沃斯警告:當所有人的資訊來源都被幾家公司的 AI 過濾,民主、文化多樣性、價值觀都會出問題。他也首度公開談論離開 Meta 的原因,直指新上司「年輕且缺乏經驗」。

來源: World Economic Forum

本文整理自 2026 年 1 月達沃斯世界經濟論壇的訪談。


末日論是胡扯,但風險是真的

談到 AI 風險,很多人腦中浮現的畫面是《乾掉魔鬼終結者》那種場景——超級智慧覺醒,決定消滅人類。這類敘事在矽谷某些圈子很流行,甚至影響了政策討論。楊立昆(Yann LeCun)對此嗤之以鼻。這位圖靈獎得主、剛離開 Meta 的 AI 教父,在達沃斯論壇上毫不客氣地說:那是 bullshit(胡扯)。

但他不是說 AI 沒有風險,他說的是我們擔心錯了方向。真正該擔心的,不是 AI 會不會「覺醒」然後毀滅人類,而是在不遠的未來,當我們所有的數位資訊攝取都被 AI 系統中介時——如果這些 AI 系統來自美國西岸或中國的少數幾家公司,我們就有大麻煩了。這關乎民主的健康、文化多樣性、語言多樣性、價值體系。我們需要高度多元的 AI 助手群體,就像我們需要多元的媒體一樣,而這只有透過開源才能實現。

這個觀點值得細想。現在大家談 AI 風險,焦點往往放在「AI 會不會太聰明」或「AI 會不會被壞人利用」。但楊立昆指出一個更根本的問題:不管 AI 聰不聰明,只要它成為人類獲取資訊的主要管道,控制這些 AI 的人就控制了人類的認知。這不需要什麼超級智慧,現有的技術就夠了。而且這種控制是隱形的——你不會感覺到自己被控制,你只是覺得「AI 給我的答案很合理」。


開放 vs 封閉:一場正在發生的逆轉

楊立昆對 AI 產業走向封閉感到痛心。他指出,過去十年 AI 之所以進步神速,最大的因素不是任何單一技術突破,而是整個領域的開放文化——研究者寫論文、上傳 arXiv、開源程式碼,知識快速流通,每個人都能站在前人肩膀上。Transformer 架構是 Google 的研究者發明的,但他們把論文公開了,所以全世界都能用;如果 Google 把這個技術藏起來,今天的 AI 生態會完全不同。

但這個生態正在崩解。OpenAI 從開放變封閉(連名字都變成諷刺),Anthropic 從來就不開放,Google 稍微開放過現在又收緊。Meta 的 FAIR(AI 研究院)曾經非常開放,但現在公司的優先序正在改變,未來會怎樣還不確定。楊立昆顯然對此很焦慮,因為他知道封閉化會拖慢整個領域的進步——當每家公司都在重複造輪子,整體效率就會下降。

與此同時,最好的開源模型來自哪裡?中國。楊立昆直言,現在全球 AI 研究社群都在使用中國的開源模型,因為它們真的很好。他在 Meta 的前同事們正在開發 Llama 的後繼者,但還不確定會不會開源。他認為這是巨大的錯誤——西方正在自我減速,而中國的開源研究卻在加速。這個觀察在 DeepSeek 崛起後顯得更加尖銳:當美國的頂尖 AI 公司都在築起高牆時,中國的研究機構卻在開放模型權重、公開技術細節。這不只是商業策略的差異,更是整個研發生態的結構性轉變。


他為什麼離開 Meta:與年輕新老闆的路線之爭

楊立昆在達沃斯的發言,也讓外界更清楚他離開 Meta 的真正原因。2025 年 6 月,Meta 以 140 億美元的交易從 Scale AI 挖來創辦人汪滔(Alexandr Wang),讓這位 28 歲的年輕人負責 Meta 的前沿 AI 實驗室「TBD Lab」。這個安排讓汪滔在技術上成為楊立昆的上司。

楊立昆對此的反應很直接:你不能告訴研究者該做什麼,當然更不能告訴像我這樣的研究者該做什麼。他在接受《金融時報》採訪時說得更明白:汪滔「年輕且缺乏經驗」,不理解研究者的運作方式——他沒有研究經驗,不知道怎麼做研究、怎麼吸引研究者、什麼事情會讓研究者反感。這話說得很不客氣,但楊立昆顯然不在乎得罪人。

更深層的衝突是路線之爭。祖克柏(Mark Zuckerberg)的新團隊聚焦於 LLM,但楊立昆多年來一直主張 LLM 是死胡同。他說:「我確定 Meta 很多人,可能包括 Alex(汪滔),希望我不要到處跟全世界說 LLM 在通往超級智慧這件事上基本上是死路一條。但我不會因為某個傢伙認為我錯了就改變想法。我沒錯。作為科學家的誠信不允許我這麼做。」這種態度讓他在大公司待不下去,但也讓他在學術圈獲得尊重。

他還爆料了一件業界醜聞:2025 年 4 月發布的 Llama 4,其 benchmark 結果「有點造假」——團隊用不同的模型去跑不同的 benchmark,以美化數字。這件事讓祖克柏非常憤怒,對整個 GenAI 團隊失去信心,把他們全部邊緣化。楊立昆預測 Meta 會有更多人離開:「很多人已經走了,還有更多人準備要走。我們有很多好點子,但公司只願意做已經被證明的、安全的事情,所以正在落後。」


Alignment 是錯誤的框架

在達沃斯,有人問楊立昆怎麼看「AI 對齊」(Alignment)這個議題——如何確保 AI 的行為符合人類價值觀。他的回答出乎很多人意料:這個框架本身就是錯的。

他解釋,現在大家談 Alignment,腦子裡想的是「怎麼讓我的 LLM 不要產出攻擊性或低俗的回答」。但這是錯誤的思考方式,因為 AI 的架構會大幅改變。楊立昆主張的「目標驅動 AI」(Objective-Driven AI)是完全不同的設計:系統被給定一個目標,它唯一能做的事就是達成這個目標,而且必須在推論時滿足特定的護欄條件。這跟我們現在「訓練」LLM 去表現良好的方式非常不同。

問題在於,LLM 的訓練資料只是所有可能輸入的極小子集。我們永遠無法保證 LLM 在任何情況下都會表現正常,因為總是會有訓練時沒遇過的 prompt。所以 Alignment 在 LLM 的框架下,本質上是無解的。但如果你設計的系統是「給它目標、它去規劃達成目標的路徑、同時遵守護欄」,安全性就可以在架構層面被保證,而不是靠訓練去「希望」它表現好。這是一個很深刻的觀點:很多 AI 安全研究都在問「怎麼對齊 LLM」,但楊立昆說,也許我們該問的是「怎麼設計出本質上就更容易控制的架構」。


全球開源聯盟的倡議

既然封閉式 AI 有這麼大的風險,解方是什麼?楊立昆提出了一個具體建議:全球不同區域應該組成聯盟,共同訓練一個全球性的開源 LLM,讓它成為全人類知識的儲存庫。

他的邏輯是:沒有任何一家私人公司,不管多大,能獨自完成這件事。你需要多語言資料、需要在地文化知識、需要各國政府和本地社群的參與來微調系統,這些只有透過開源才能實現。他特別呼籲既非美國、也非中國的國家應該積極推動這件事——因為如果你既不想被美國的 AI 控制、也不想被中國的 AI 控制,你就需要第三條路,而這條路只有開源能走通。

這讓人想到 Linux 的歷史。1990 年代,如果你要架網站,你得買 Sun 或 HP 的伺服器、跑專有作業系統、用專有軟體。現在呢?整個網際網路都跑在 Linux 上,從底層協議到作業系統到應用程式,全部是開源,專有方案被徹底淘汰。楊立昆認為 AI 會走上同樣的路:平台最終都會變成開源,如果不是開源就不會被廣泛採用。


我的觀察

楊立昆的「資訊霸權」警告,對媒體工作者來說特別有感。我們已經看到演算法如何重塑資訊生態:Facebook 的動態牆決定什麼新聞會被看到,Google 的搜尋排序決定什麼資訊會被找到,YouTube 的推薦系統決定你接下來會看什麼。這些都是由少數公司的 AI 系統在做決定。但這還只是「篩選」層面,接下來的發展更激進:AI 不只是篩選資訊,而是直接生成資訊。當你問 ChatGPT 一個問題,它給你的答案是「合成」出來的,你甚至不知道它參考了什麼來源、做了什麼取捨。如果這成為人們獲取資訊的主要方式,而這些 AI 又來自少數幾家公司,那麼這幾家公司就實質上控制了人類的認知。這比任何傳統媒體壟斷都更徹底,因為你連「換一個來源看看」的選項都沒有。

楊立昆和汪滔的衝突,也折射出 AI 產業的一個結構性張力:研究導向 vs 產品導向。楊立昆這種學者型的人,重視的是「做對的研究」、「走對的方向」;但公司需要出貨、需要營收、需要在競爭中不落後。當祖克柏找來一個「快速執行、講求效率」的年輕 CEO 來主導前沿研究,衝突幾乎是必然的。有趣的是,楊立昆離開後,Meta 還是會和 AMI 保持合作關係。這種「分手後還是朋友」的安排,也許反映了雙方都知道徹底切斷關係對誰都沒好處——Meta 需要楊立昆的研究方向作為對沖,楊立昆也需要 Meta 的資源和影響力。

至於開源能不能真的成為第三條路?這仍是未知數。Linux 的成功有其特殊歷史背景,AI 模型的訓練成本比作業系統高出好幾個數量級。但如果楊立昆是對的——如果 LLM 真的撞牆、如果下一代 AI 需要全新的架構——那麼開源社群也許真的有機會彎道超車。畢竟,當遊戲規則改變時,原本的領先者不一定還能領先。


延伸閱讀