職涯與學習

楊立昆給年輕人的建議:選量子力學,別選 App 開發

圖靈獎得主楊立昆在達沃斯回答了每個學生都在問的問題:AI 時代該學什麼?他的答案出人意料——學基礎科學,不要追熱門應用。他也分享了對 2035 年的展望,以及為什麼他認為 AI 不會造成大規模失業。

來源: World Economic Forum

本文整理自 2026 年 1 月達沃斯世界經濟論壇的訪談。


一道看似反直覺的選擇題

如果你是資工系學生,面前有兩門選修課:一門是手機 App 開發,另一門是量子力學。你會選哪個?大部分人會選 App 開發吧?實用、有產出、跟未來工作直接相關。量子力學?那是物理系的事,跟寫程式有什麼關係?

但楊立昆(Yann LeCun)的建議正好相反。這位圖靈獎得主、深度學習的奠基人之一,在達沃斯論壇被問到「年輕人該如何為 AI 時代做準備」時,給出了一個讓很多人意外的答案:選量子力學。他的理由很實際——你在量子力學學到的方法論,會讓你學會「如何學習」,你會掌握一套可以在各種不同領域重複使用的基礎技術。而且,你怎麼會事先知道,機器學習的底層數學幾乎全部來自統計物理學?這就是為什麼現在有這麼多物理學家在做 AI 研究。App 開發呢?五年後可能就過時了。技術疊代太快,今天的熱門框架,明天可能就被淘汰。但物理學的基本原理,一百年前是對的,一百年後還是對的。

這番話背後有個更大的判斷:科技進步正在加速。這意味著,現在正在念書的人,幾乎可以確定會換工作——不是「可能」會換,是「一定」會換。因為科技演進太快,你今天學的具體技能,過幾年可能就用不上了。所以學生應該學的,是那些保存期限長的東西——不會五年、十年就過時的基礎知識。這些知識會給你一套思考工具,讓你在科技持續演進時,有能力快速學習新東西。這聽起來像是老掉牙的「終身學習」口號,但楊立昆說的比較具體:不是「什麼都學一點」的那種終身學習,而是「先把基礎打扎實,才有能力學新東西」。如果你只會操作特定工具,工具換了你就完了;如果你懂原理,換什麼工具你都能很快上手。


AI 會造成大規模失業嗎?經濟學家說不會

很多人擔心 AI 會造成大規模失業,楊立昆對此的態度是:他不是經濟學家,但他願意轉述經濟學家的看法。他提到當晚要和兩位重量級經濟學家吃飯——諾貝爾獎得主 Philippe Aghion 和史丹佛大學的 Erik Brynjolfsson。這些研究 AI 經濟影響的專家怎麼預測?AI 會逐步提升生產力,每年大約 6%。

6% 聽起來不多,但其實很可觀——這比過去幾十年的生產力成長率高不少。關鍵是,這是「逐步」的,不是「一夜之間」的。不會有什麼「AI 奇點」讓所有工作突然消失。為什麼不會造成大規模失業?因為技術擴散的速度,受限於人們學習使用新技術的速度。這是一個內建的調節機制:新技術出現後,要有人會用、要有企業願意導入、要有配套的流程和制度跟上,這些都需要時間。而這個「人類學習」的時間差,就是緩衝。這不是說沒有人會受衝擊——特定職業、特定技能一定會被取代或改變。但從總體經濟的角度,這會是一個漸進的轉型,而不是斷崖式的崩塌。當然,楊立昆也說了,這是經濟學家的預測,他只是轉述,準不準還要看實際發展。


2035 年會是什麼樣子

訪談最後,主持人問楊立昆:十到十五年後,世界會因為 AI 而變得多不一樣?什麼是成功?什麼是失敗?

成功的情境是這樣的:我們會有理解物理世界的 AI 系統,甚至可能達到類人智慧的水準。在某些領域,AI 會比人類聰明,因為電腦本來就有些事做得比人好。這會在未來十年內,以「不可忽略的機率」發生。但不會是明年,也不會是兩年內——楊立昆說,這跟他那些「比較樂觀的同事」看法不同,他認為還有很多工作要做,還需要幾個概念突破。

而且,這不會是一個「事件」。很多人腦中有這樣的想像:某一天,某個實驗室發現了 AGI 的秘密,隔天電腦就接管世界。這是荒謬的,從來不是這樣發生的。實際發生的方式會是:一系列概念突破會出現在沒人注意的學術論文裡,五年後才會有人展示它們的威力。深度學習是這樣,Transformer 是這樣,LLM 也是這樣。到了 2035 年,我們會有隨時輔助我們的 AI 助理,也許在智慧眼鏡裡——這是 Meta 的願景——或其他穿戴裝置上。這些系統會放大我們的智慧,也許讓我們做出更理性的決策。楊立昆說,增加地球上的總智慧量,本質上是好事,這是值得追求的目標。

那失敗的情境呢?他沒有直接回答,但從他整場訪談的論述可以推斷:失敗就是 AI 被少數公司壟斷、開源生態崩解、人們失去對資訊來源的選擇權。那會是比「AI 滅絕人類」更真實、更迫切的危機。


閃電問答:最被高估與低估的概念

訪談尾聲有一段閃電問答,楊立昆的回答很有意思。

主持人問:現在 AI 領域最被高估的概念是什麼?楊立昆毫不猶豫地說:「Scaling」(擴大規模)。這跟他整場訪談的論點一致——他認為光靠把模型做大、資料做多,不會帶來真正的智慧突破。最被低估的研究方向?「World Models」(世界模型)。這也是他新公司 AMI 的核心押注。

主持人又問:有哪本書或哪位思想家,深刻影響了你對智慧的理解?楊立昆推薦了 Frans de Waal 的書。de Waal 是著名的靈長類學家,不久前過世了,寫過一本書叫《我們是否聰明到足以理解動物有多聰明?》(Are We Smart Enough to Know How Smart Animals Are?)。楊立昆說,我們總以為智慧跟語言有關,錯了。動物非常聰明,而我們目前無法用機器重現那種智慧。這呼應了他對 LLM 的批評——語言只是智慧的一小部分,真正的智慧是對物理世界的理解和互動能力。

最後一個問題:未來十年,誰會最深刻地影響 AI 的發展軌跡?楊立昆的回答是:「一個還沒有人知道名字的人。」不是馬斯克,不是奧特曼,不是任何現在檯面上的人物,而是某個還默默無聞、正在寫「沒人注意的論文」的研究者。這呼應了他整場訪談的核心信念:真正重要的突破,來自基礎研究,不是來自商業競爭。


我的觀察

楊立昆「學量子力學不要學 App 開發」的建議,坦白說,對大部分人不太實用。不是每個人都有條件、有興趣、有能力去學物理。他自己是頂尖學者,說這種話當然容易。但他背後的邏輯是對的:在快速變化的世界,具體技能的折舊速度會越來越快。十年前最紅的框架、工具、平台,現在有多少還在用?五年後呢?

這對我自己的學習路徑也是個提醒。過去一年我花很多時間學各種 AI 工具的操作——怎麼用 Claude、怎麼用 Cursor、怎麼寫 prompt。這些確實立刻有用,但半年後呢?產品更新、介面改版、甚至整個產品被淘汰,都是可能的。真正該投資的,可能是更底層的東西:理解 AI 的基本原理、理解機率和統計、理解資訊如何流動和被處理。這些不會因為某個產品下架就失效。

楊立昆說 AI 會像「智慧助理」一樣輔助我們,而我們和超級智慧的關係,會像企業領袖和幕僚的關係。老闆不需要比員工聰明,但要知道怎麼用人、怎麼做決策;教授不需要比學生聰明,培養出比自己厲害的學生才是目標。這個比喻很有意思:如果未來的 AI 真的比人類聰明,那麼「知道怎麼跟 AI 協作」可能比「自己很厲害」更重要。而要做到這點,你需要理解 AI 能做什麼、不能做什麼、在什麼情況下會出錯——這又回到基礎知識的重要性了。

至於那本 Frans de Waal 的書,我也放進待讀清單了。如果楊立昆說它影響了他對智慧的理解,應該值得一讀。


延伸閱讀