Amodei 直言:別把晶片和資料中心賣給中國,AI 極權是人類最大威脅
在五大 AI 風險中,Anthropic 執行長 Dario Amodei 把「極權政權利用 AI 鞏固權力」列為最嚴重的威脅——比 AI 失控還嚴重。他公開呼籲禁止向中國出售晶片、晶片製造設備和資料中心,並警告 AI 驅動的自動武器、大規模監控和個人化宣傳正在成為獨裁者的終極工具。

本文整理自 Anthropic 執行長 Dario Amodei 於 2026 年 1 月發表的長文《科技的青春期》(The Adolescence of Technology)。本篇為系列共五篇的第二篇,聚焦 Amodei 認為最嚴重的 AI 風險:極權政權利用 AI 鞏固永久統治。強烈建議讀者閱讀原文全文。
比 AI 失控更可怕的事
在關於 AI 安全的公共討論中,「AI 失控」幾乎壟斷了所有注意力。電影裡的邪惡 AI、社群上的末日預言、科學家的公開信——焦點永遠是那個終極問題:AI 會不會反過來統治人類?
Anthropic 執行長 Dario Amodei 在他的萬字長文中,對這個問題給出了一個出乎很多人意料的回答:AI 失控確實是風險,但不是最大的風險。最大的風險是人類自己——具體來說,是掌握了 AI 的獨裁政權。
他的邏輯很直接。AI 失控是一個技術問題,而技術問題至少在理論上有技術解法。但一個已經擁有 AI 能力的極權國家,不是一個技術問題,而是一個政治和軍事問題。而且它不需要等到「超級智慧」出現才成立——現有的 AI 能力就已經足夠讓獨裁者如虎添翼。
獨裁者的四件新武器
Amodei 把 AI 極權的威脅拆解成四個向量,每一個都已經有了現實世界的先例。
第一是自動武器。俄烏戰爭已經展示了無人機如何改變戰場的遊戲規則,但目前的無人機仍然大量依賴人類操控。Amodei 擔心的是下一步:完全自主的殺傷性武器系統,不需要人類「按下按鈕」就能決定誰生誰死。對一個不受國際法約束、不在意平民傷亡的政權來說,這種武器的吸引力不言而喻。
第二是大規模 AI 監控。這不是假設——中國對維吾爾族的監控系統已經運作多年。AI 讓監控的效率和精細度提升到了全新的等級:不只是知道你在哪裡、跟誰說話,還能預測你「可能」會做什麼。Amodei 描述的場景是一個政權可以對每一個公民建立即時的「風險評分」,在任何異議萌芽之前就將其掐滅。
第三是個人化宣傳。傳統的宣傳是廣播式的——同一套說詞對所有人。AI 讓宣傳變成「一對一」的精準操控。根據每個人的心理特徵、瀏覽歷史、社交關係,生成最能說服「這個人」的內容。Amodei 點名了 TikTok 作為中國共產黨宣傳載體的案例——而那還只是最初級的版本。當 AI 可以即時生成文字、影像、甚至偽造的私人對話,操控的可能性遠超我們目前的想像。
第四是 AI 戰略顧問。這是最少人討論但 Amodei 認為值得警惕的面向。獨裁者的一個永恆困境是「誰可以信任」——幕僚可能叛變、將軍可能政變、情報機關可能隱瞞。一個強大的 AI 系統解決了這個問題:它不會背叛、不會洩密、不會有政治野心,而且它的分析能力遠超任何人類顧問團。Amodei 沒有說這一定會發生,但他指出,如果你是一個多疑的獨裁者,AI 幕僚的吸引力是無法抗拒的。
為什麼他點名中國
在整篇文章中,Amodei 對中國的點名是直接而明確的。他沒有用「某些國家」或「潛在的對手」這種外交辭令。他的判斷是:中國是目前唯一同時具備先進 AI 能力和成熟監控基礎設施的國家。
DeepSeek 的崛起讓很多人修正了「中國 AI 已經落後」的判斷。Amodei 顯然也注意到了這一點。他的擔憂不是中國 AI 會超越美國——他仍然認為美國在前沿模型上保持領先——而是中國 AI 已經「夠好」了。夠好到可以大規模部署監控系統、訓練自動武器、生成針對性宣傳。在 AI 極權的場景裡,你不需要最好的模型,你需要的是「夠好的模型」加上「願意不受約束地使用它」的政治意志。
他最直白的政策主張出現在這裡:不要把晶片、晶片製造設備和資料中心賣給中國共產黨。
這句話在矽谷幾乎前所未見。多數科技公司的 CEO 即使在私下場合對中國 AI 表達擔憂,公開發言時也會小心翼翼地保持中立。因為許多科技公司——包括 NVIDIA、Apple、高通——在中國有巨大的營收利益。公開主張對中國實施更嚴格的出口管制,等於直接觸碰這些公司的底線。
Amodei 這樣做的一個現實背景是:Anthropic 在中國沒有營收。他不需要擔心得罪中國市場。但這不完全能解釋他的直白程度。在他的論述框架裡,出口管制不是「貿易政策」,而是「文明存亡」的一環。如果 AI 極權是最大威脅,那阻止極權政權取得 AI 所需的硬體,就是最優先的防禦措施。
武裝民主的悖論
Amodei 的解法很清楚:民主國家必須在 AI 能力上保持領先,用 AI 強化自己的防禦,同時防止 AI 被用來壓迫自己的公民。
但他也坦承,這裡面有一個他沒有完全解決的悖論。
歷史告訴我們,民主國家建立的「對外」防禦工具,最終幾乎總會被「對內」使用。FBI 在冷戰時期監控民權運動、NSA 被揭露對美國公民進行大規模監聽、Clearview AI 的人臉辨識技術從反恐工具變成警察的日常監控手段。「武裝民主以對抗極權」和「確保民主不會變成極權」之間的界線,在實踐中遠比理論上模糊。
Amodei 提出的解法是制度性的:透過憲法修正案或公民自由立法,明確禁止政府使用 AI 進行國內監控和宣傳操控。他也主張建立國際禁忌——類似對化學武器和生物武器的國際共識——讓 AI 驅動的大規模監控和自主殺傷武器成為所有國家(包括民主國家)不可觸碰的紅線。
他承認這些措施不是萬能的。法律可以被修改、禁忌可以被打破、憲法修正案可以被重新詮釋。但他的論點是:有制度性防線,總比沒有好。
他描述的最壞情境借用了喬治·歐威爾的意象:不是一個統一的 AI 帝國,而是多個相互競爭的 AI 極權政體,每一個都用 AI 牢牢控制自己的人口,彼此之間進行 AI 驅動的軍備競賽。在這個世界裡,個人自由不是被某一個「大魔王」消滅的,而是被「系統性地」消滅的——因為每一個政權都認為放鬆控制等於給對手可乘之機。
我的觀察
一家 AI 公司的 CEO 公開呼籲禁止向中國出售晶片、製造設備和資料中心,這在矽谷幾乎沒有先例。 多數科技業 CEO 在國會閉門會議上可能會這樣說,但到了公開場合一定會打太極。Amodei 這樣做有幾個可能原因:Anthropic 不像 NVIDIA 或 Apple 有中國營收壓力;他在搶先佔據「國家安全盟友」的位置;或者他真心認為這是最大威脅。無論動機如何,當一個 AI 產業領袖願意把這種話白紙黑字寫下來,它就會進入政策討論的語彙庫。華盛頓的決策者讀到這篇文章時,會多一個引用來源;反對出口管制的遊說者,則多了一個需要反駁的對象。公開立場本身就是一種政策行為。
「武裝民主」的悖論,他承認了但沒有解決——因為這可能根本無解。 每一個在人類歷史上被建立的「對外」監控工具,最終都「對內」部署了。從 FBI 監控馬丁路德金,到 NSA 大規模監聽美國公民,到英國的閉路電視從反恐工具變成無所不在的日常監控。Amodei 提出用憲法修正案來畫紅線,但這忽略了一個結構性的問題:技術的部署速度永遠比立法快,而且一旦基礎設施建好了,「誰有權使用它」這個問題就會被不斷重新定義。讀者應該認真想一個問題:我們是否可能在「防禦獨裁」的名義下,一步一步建好了自己的監控基礎設施,等到發現的時候已經拆不掉了?
台灣是這整篇論述的隱形核心——即使 Amodei 全文沒有提到「台灣」兩個字。 他談晶片出口管制,背後的關鍵是台積電。他談 AI 地緣政治的核心緊張,焦點是台海。「不要賣晶片、製造設備和資料中心給 CCP」這個主張的隱含前提,是台灣半導體產能在短期內無可替代。從台灣的角度讀這篇文章,會得到一個完全不同的感受:台灣不只是被保護的對象,更是整場民主 vs. 極權 AI 競賽的戰略支點。如果台灣的半導體產能被中斷或被控制,Amodei 描述的所有防禦措施——出口管制、民主 AI 領先、技術優勢——全部瞬間失效。這不是地緣政治教科書上的抽象分析,這是台灣每天都在面對的現實。
Amodei 可能低估了「AI 極權」的民主版本。 他把最大威脅定義為中國式的「極權 + AI」組合。但 2024 到 2025 年全球民主退潮的趨勢顯示,威脅不只來自外部。民選政府利用 AI 進行選舉操縱、壓制異議、控制輿論的案例,已經在多個國家出現。匈牙利、土耳其、印度、甚至美國自身,都有政治領袖利用演算法和自動化工具操控資訊環境的紀錄。Amodei 的框架把「民主」和「極權」畫成清楚的兩邊,但現實中這條線越來越模糊。真正該問的問題不只是「如何防止中國用 AI 鞏固權力」,而是「如何防止任何掌握 AI 的人——包括民主國家的民選領袖——將其武器化」。當 AI 讓資訊操控的成本趨近於零,民主體制自身的免疫力是否足夠?這個問題,Amodei 碰了但沒有深挖。
本系列全部文章
本系列共五篇,整理自 Dario Amodei 的長文《科技的青春期》(The Adolescence of Technology):
- Anthropic 執行長萬字長文:人類正在經歷「文明的青春期」
- **本篇 → ** Amodei 直言:別把晶片和資料中心賣給中國,AI 極權是人類最大威脅
- AI 取代白領不是危言聳聽:Amodei 預估一半初階白領工作將在數年內消失
- 不要當末日派,也別盲目樂觀:Amodei 的「外科手術式監管」主張
- AI 正在加速開發下一代 AI:Amodei 描述的回饋循環為什麼讓人不安