AI 正在加速開發下一代 AI:Amodei 描述的回饋循環為什麼讓人不安
Anthropic 執行長 Dario Amodei 透露,AI 正在寫 Anthropic 大部分程式碼,並且正在大幅加速下一代 AI 的開發速度。這個回饋循環逐月加速。他引用十年的 Scaling Laws 研究數據,反駁了 2024 年「AI 撞牆」的報導,並坦言:『我能感覺到進步的速度,以及時鐘倒數的聲音。』

本文整理自 Anthropic 執行長 Dario Amodei 於 2026 年 1 月發表的長文《科技的青春期》(The Adolescence of Technology)。本篇為系列共五篇的第五篇,聚焦 AI 能力的加速軌跡、Scaling Laws 的實證基礎,以及 Amodei 認為最被忽視卻最關鍵的趨勢——AI 開發 AI 的回饋循環。強烈建議讀者閱讀原文全文。
一句不經意的話,揭露了整篇文章最重要的事實
在一篇涵蓋五大風險、橫跨地緣政治和經濟衝擊的萬字長文中,最讓人停下來反覆思考的,可能是 Amodei 隨口提到的一句話:「AI 正在寫 Anthropic 大部分的程式碼,而且正在大幅加速我們開發下一代 AI 的速度。這個回饋循環正在逐月加速。」
這句話的含義需要拆開來看。
AI 寫程式碼,這件事本身已經不新鮮。GitHub Copilot 在 2022 年就上線了,到 2025 年已經有數百萬開發者在使用。但 Amodei 說的不是「AI 輔助工程師寫程式碼」——他說的是 AI 正在寫他們公司「大部分」的程式碼,而且這些程式碼的目的是開發下一代更強的 AI。
這就是回饋循環的意思:AI 寫程式碼 → 加速開發下一代 AI → 下一代 AI 更強 → 寫出更好的程式碼 → 進一步加速開發。每轉一圈,速度都比上一圈快。
Amodei 用了一個很克制的說法:「gathering steam month by month」——逐月加速。但如果你理解指數成長的本質,你就知道「逐月加速」在足夠長的時間軸上意味著什麼。今天看起來還是漸進式的進步,某個時間點之後會突然變成爆炸性的躍進。而且你很難事先知道那個轉折點在哪裡。
十年的 Scaling Laws:為什麼他有底氣做預測
Amodei 不是憑直覺在說「AI 會持續變強」。他引用了一個有十年研究歷史的實證基礎:Scaling Laws。
Scaling Laws 的核心發現是:當你增加 AI 訓練的算力和資料量時,模型的能力會可預測地提升。不是隨機的、不是偶爾的,而是系統性的、跨領域的。Amodei 和 Anthropic 的共同創辦人親自參與了這個研究方向的早期工作。
他在文中舉了一個讓人印象深刻的對比:三年前,最強的語言模型連基本的四則運算都做不好。今天,同類模型已經開始在未解的數學問題上取得進展,能夠從零開始撰寫複雜的程式碼。三年的時間,從「算不好加減乘除」到「嘗試解未解的數學難題」。
更重要的是,這個進步不是只發生在某一個領域。Amodei 指出,生物科學、金融分析、物理學、代理性任務(也就是 AI 自主追求目標的能力)都展現了類似的進步曲線。AI 不是在某一項技能上變得很強而其他方面停滯不前——它是在幾乎所有認知任務上同步進步。
這就是為什麼 Scaling Laws 讓人不安。如果進步是隨機的、偶發的,那我們可以合理地預期它會停下來。但如果進步是系統性的、可預測的,那「它會繼續」就不是盲目樂觀,而是基於十年資料的合理推斷。
反駁「AI 撞牆」的敘事
2024 年底,CNN 和金融時報(Financial Times)刊出了一系列報導,核心論點是:AI 的進步速度正在放緩,可能遇到了技術瓶頸。這些報導在科技圈和投資圈產生了巨大影響。很多人鬆了一口氣:看吧,AI 不會那麼快改變一切,我們還有時間。
Amodei 顯然對這些報導很不以為然。
他的反駁不是抽象的——他用了後續模型的具體能力進步來回應。在那些報導發表之後,新一代模型在數學推理、程式撰寫和代理性任務上的表現出現了顯著的跳躍式進步。他沒有點名具體的模型,但考慮到時間線,這很可能包括了 Claude Opus 4 和後續版本的能力提升。
他的論點是:媒體和公眾對 AI 進步的認知,往往落後於實際的技術發展。當記者寫「AI 可能撞牆了」的時候,實驗室裡的研究員已經在用撞牆之後的成果做下一輪實驗了。這個認知落差不只是知識上的問題——它會影響政策制定、企業策略和個人職涯規劃。如果決策者還在用「AI 撞牆」的假設做規劃,他們的計畫可能從一開始就建立在錯誤的前提上。
「我能感覺到時鐘倒數的聲音」
在整篇文章中,Amodei 刻意維持著學術式的冷靜。他反覆使用「不確定」、「可能」、「有相當機率」這類限定語。他批評末日派使用過度情緒化的語言。他主張所有判斷都應該基於證據而非直覺。
但在描述 AI 進步速度的時候,他突然偏離了這個語調。
他寫道:「在 Anthropic 內部觀察了五年的進展後,我能感覺到(feel)進步的速度,以及時鐘倒數的聲音。」
這個「feel」在整篇文章中極為突兀。一個花了上萬字告訴你「我不確定任何事情」的人,突然切換到第一人稱的感性表達。這個破格值得認真對待。
Amodei 給出的保守框架是:不是說強大 AI 一定在一到兩年內到來,而是「有相當的機率」在一到兩年內,「非常高的機率」在未來幾年內。但他的感性表達暗示,他內心的確定程度可能比這些限定語所傳達的更高。
他之所以不把話說死,可能有幾個原因。作為一家 AI 公司的 CEO,做出過度確定的時間表預測是危險的——無論是對投資人、對員工還是對公眾。作為一個科學家,他知道「確定」和「高機率」之間的差距。但作為一個在前沿親眼看過五年進展的人,他的直覺判斷可能比他願意公開表達的更為篤定。
到 2027 年:數百萬個超人智能體
Amodei 描繪的近期未來不是遙遠的科幻場景。他估計到 2027 年左右,資料中心的規模可能足以支撐數百萬個模型實例同時運作。每個實例都具備超越人類的認知能力,運作速度是人類的十到一百倍,可以連上網路,可以自主規劃和執行複雜任務。
他用了一個反覆出現的比喻:「資料中心裡的天才國度」。大約五千萬個超越諾貝爾獎等級的智能體,每一個都是完全相同的——因為它們都是同一個模型的副本。它們不會疲倦、不會分心、不會請假、不會在會議中走神。它們可以同時在數千個專案上全力工作,而且彼此之間可以即時共享發現。
如果這個描述讓你覺得不真實,Amodei 提醒你:三年前最強的 AI 連加減乘除都做不好。從那個起點到今天的距離,就是你用來推估未來三年可能變化的參考基準。
而回饋循環的存在意味著,未來三年的進步速度可能比過去三年更快。因為現在的 AI 已經在幫忙開發下一代。
我的觀察
回饋循環是整篇萬字長文中最關鍵的段落,但它被埋在了五大風險的討論裡,很容易被忽略。 大多數讀者讀這篇文章會聚焦在恐怖的風險場景——AI 欺騙、生物武器、極權監控、大規模失業。但所有這些風險的時間表,都取決於一件事:AI 變強的速度有多快。而回饋循環正是決定這個速度的核心機制。如果 AI 開發 AI 的效率每隔幾個月就翻一倍,那 Amodei 描述的所有風險的「未來十年」情境,可能會在「未來三到五年」就到來。這不是在販賣恐懼——這是在指出,所有關於「我們還有多少時間準備」的估算,都需要把這個加速因子考慮進去。多數人的規劃仍然建立在「線性進步」的假設上。回饋循環告訴我們,實際的進步可能是指數級的。
「我能感覺到時鐘倒數的聲音」——這句話出自一個在整篇文章中極度克制的人,這個「破格」本身就是訊號。 Amodei 整篇文章的基調是學術式的冷靜、反覆的限定語、刻意的不確定性。這是一個受過科學訓練的人在處理複雜問題時的標準態度。但唯獨在描述 AI 進步速度的時候,他切換到了第一人稱的感性語言。如果你跟有科學背景的人共事過,你會知道讓他們說出「我能感覺到」有多困難。這些人會說「資料顯示」、「證據建議」、「機率分布指向」——幾乎永遠不會說「我感覺到」。Amodei 在這個地方破例了。這暗示他觀察到的現象可能比他願意用數據語言描述的更令他震動。讀者可以自己判斷這代表什麼,但不應該忽略這個語調的轉變。
「AI 撞牆」的敘事在 2024 年讓很多人鬆了一口氣,但很多決策者和工作者仍然活在那個認知框架裡——這個落差本身就是風險。 2024 年底那波「AI 放緩」的報導,影響了一大批人的判斷:投資人開始收緊 AI 投資、企業推遲了 AI 導入計畫、個人覺得「AI 還早,不用急著學」。Amodei 用後續的模型能力跳躍式進步反駁了這些報導。但問題在於,公共認知的更新速度永遠比技術慢。到了 2026 年初,仍然有大量的企業主管和政策制定者在用 2024 年的「AI 可能撞牆」框架做決策。這個認知落差的後果是具體的:延遲導入 AI 的企業會在競爭中落後;沒有調整職涯策略的個人會在就業市場上措手不及;用「我們還有很多時間」為前提制定政策的政府,會發現時間比他們想的少得多。如果你現在做的任何重要決定——職涯、投資、企業策略——仍然建立在「AI 進步會放緩」的假設上,你值得重新評估那個假設。
本系列全部文章
本系列共五篇,整理自 Dario Amodei 的長文《科技的青春期》(The Adolescence of Technology):
- Anthropic 執行長萬字長文:人類正在經歷「文明的青春期」
- Amodei 直言:別把晶片和資料中心賣給中國,AI 極權是人類最大威脅
- AI 取代白領不是危言聳聽:Amodei 預估一半初階白領工作將在數年內消失
- 不要當末日派,也別盲目樂觀:Amodei 的「外科手術式監管」主張
- 本篇 → AI 正在加速開發下一代 AI:Amodei 描述的回饋循環為什麼讓人不安