當美國說「不」:聯合國 AI 治理的權力真空,與中國的戰略機遇
白宮科技政策辦公室主任公開宣告「完全拒絕」國際機構對 AI 的集中管控,聯合國秘書長古特瑞斯則推動成立全球 AI 科學小組。美國退出多邊 AI 治理後留下的權力真空,中國正積極填補。這場角力對臺灣意味著什麼?

本文綜合聯合國 2026 年 2 月 4 日記者會、各國官方聲明與智庫分析。
「完全拒絕」:白宮劃下的那條線
2025 年 9 月的聯合國大會高階會議上,白宮科技政策辦公室(OSTP)主任 Michael Kratsios 站上講台,用了一個在外交場合極其罕見的措辭。他說,美國「完全拒絕國際機構對 AI 實施集中管控與全球治理的一切企圖」。進步的動力,他強調,來自「國家的獨立與主權」,而非「官僚式的管理」。
這不是隨口說說。如果你不知道 Michael Kratsios 是誰,有必要介紹一下。他是川普政府的科技政策總舵手,OSTP 直接向總統匯報,在科技政策制定中擁有核心影響力。Kratsios 本身是矽谷出身,曾任彼得.提爾(Peter Thiel)旗下投資公司 Thiel Capital 的幕僚長,在川普第一任期就擔任過 OSTP 副主任。他的立場清晰一致:美國的 AI 優勢來自去監管化和私部門的自由創新,任何試圖在國際層面建立規範的努力,都可能削弱這個優勢。
在 Kratsios 發表這番聲明的幾個月後,2026 年 2 月 4 日,聯合國秘書長安東尼歐.古特瑞斯(António Guterres)在紐約宣布了他為「獨立國際 AI 科學小組」提名的 40 位專家名單。古特瑞斯的措辭與 Kratsios 形成了尖銳對比:「在深刻的地緣政治緊張和日益激烈的科技競爭中,我們迫切需要基於科學與團結的共同基礎。」
一邊說「完全拒絕」,一邊說「迫切需要」。這個裂痕,定義了 2026 年全球 AI 治理的基本格局。
美國為什麼退場?不只是政治立場,更是產業邏輯
要理解美國的「完全拒絕」,不能只看政治面。背後有一套清晰的產業邏輯。
川普政府的 AI 策略核心是三個字:去監管。國內方面,他上任後迅速撤銷了拜登政府 2023 年簽署的 AI 行政命令,那份命令曾要求大型 AI 模型在發布前接受安全評估。國際方面,白宮推動的不是多邊治理,而是「美國技術、標準和治理模式的全球採用」——換句話說,你可以用我的規則,但我不會遵守你的。
這背後的計算很簡單。全球最強的 AI 公司——OpenAI、Google DeepMind、Anthropic、Meta AI——清一色在美國。美國目前在前沿 AI 研究上的領先優勢是壓倒性的。在這個格局下,任何國際層面的監管框架,幾乎必然會限制美國公司的行動自由,同時為追趕者提供喘息空間。從華府的角度看,多邊 AI 治理不是在解決問題,而是在幫競爭對手綁住你的手腳。
2025 年 11 月,在聯大第一委員會的軍事 AI 使用決議投票中,美國和俄羅斯罕見地站在了同一邊——都投了反對票。兩國的理由不同(美國不想被約束,俄羅斯不想被檢視),但結果相同:拒絕任何對 AI 軍事應用的國際規範。
更值得注意的是,美國甚至缺席了 2025 年 9 月「全球 AI 治理對話」的非正式啟動會議。這不只是消極抵制,而是主動表態:我不參與,我不背書,我不賦予這個平台任何正當性。
聯合國數位與新興科技特使 Amandeep Singh Gill 試圖降溫,他對媒體說:「說聯合國要介入 AI 的監管,是一種扭曲。」但華府的訊號已經發出,而且發得非常響亮。
中國如何接住這個球
如果說美國退場留下了一個權力真空,中國正在以驚人的速度和系統性填補它。
時間線很說明問題。2025 年 7 月 23 日,美國發布了自己的 AI 行動計畫。三天後,7 月 26 日,中國推出了一份名為《全球 AI 治理行動方案》的 13 點路線圖。這份文件明確支持聯合國 AI 科學小組和全球對話機制,將聯合國定位為 AI 治理的「主要場所」,並把 AI 治理與「縮小數位鴻溝」連結在一起——這是對全球南方國家最有吸引力的論述框架。
在聯合國內部,中國透過 G77+中國集團(代表超過 130 個開發中國家的最大談判團體)推動以國家為中心的治理模式,強調主權、不干涉和共識決策。2025 年 9 月的聯大上,中國外交部副部長馬朝旭明確表態:支持「聯合國在 AI 治理中發揮核心作用」,反對「單邊主義和保護主義」。
中俄還發表了聯合聲明,共同支持聯合國的「核心角色」,反對「科學技術的政治化」。
這些不只是外交辭令。在剛公布的 40 人小組名單中,中國拿到了兩個席位。宋海濤是上海人工智慧研究院暨上海交通大學的院長,王堅則是中國工程院院士、之江實驗室主任、阿里雲的創辦人——後者的產業背景和政策影響力都不容小覷。
美國戰略暨國際研究中心(CSIS)的分析一針見血:中國正在積極填補美國退出多邊 AI 治理後留下的「領導真空」,透過制度性的參與來累積軟實力。CSIS 的報告標題本身就很有意思——《聯合國全球 AI 治理對話揭示了全球權力轉移的什麼?》
其他大國的盤算
歐盟:先行者的自信與不滿
歐盟在 AI 治理領域的自我定位很明確:我已經做了,你們跟上。2024 年生效的《AI 法案》(AI Act)是全球第一部全面性的 AI 監管法規,歐盟以此為基礎,在聯合國談判中大力推動「科學獨立性」和「多元利害關係人參與」。
2025 年 8 月的聯大投票中,丹麥代表歐盟發言稱,共識的達成「向全世界發出了聯合國在新興科技議題上的重要性信號」。但歐盟代表團也承認,「這個過程比預期的更艱難,雖然我們對最終文本不完全滿意,但歐盟很高興能加入共識。」
不完全滿意的是什麼?歐盟原本希望小組的遴選由一個獨立委員會主導(而非秘書長),成員數量在 35-50 人之間,並且堅持「不開政策處方」的定位,防止小組變成一個準監管機構。最後這些訴求大致都實現了,但歐盟在談判過程中也不得不對開發中國家的地理代表性要求做出讓步。
歐洲在名單上的代表最多(約 12 席),某種程度上反映了歐洲在 AI 倫理和治理學術圈的既有優勢。
印度:全球南方的領導野心
印度在 AI 治理議題上的策略是兩面下注:既積極參與聯合國多邊機制,又主辦自己的旗艦活動來爭取話語權。
2026 年 2 月 16 至 20 日,印度將在新德里舉辦「全球 AI 影響力高峰會」(Global AI Impact Summit),這是有史以來第一場在全球南方國家舉辦的大型 AI 治理峰會,預計吸引超過 35,000 名來自 100 多個國家的參與者。古特瑞斯本人也將出席,他稱讚印度「在這方面承擔了領導角色」。
在記者會上,印度通訊社(PTI)的記者直接問古特瑞斯如何看待印度在 AI 領域的角色,古特瑞斯的回答很巧妙——他把印度高峰會與聯合國的全球數位契約直接連結,表示會在高峰會上向各國元首解釋「科學小組的角色」和「對話的期望」。核心目標則是「如何更好地動員國際社會支持開發中國家的能力建設」。
印度的代表 Balaraman Ravindran 同時身兼 IIT Madras 資料科學系主任和印度國內 AI 治理框架的起草委員會主席,這個雙重身分讓他成為國際標準與國內政策之間的關鍵橋梁人物。
英國:從「安全」到「安保」的微妙轉向
英國在 AI 治理圈曾經是最高調的國家。2023 年 11 月的布萊切利莊園 AI 安全高峰會(Bletchley Park AI Safety Summit),29 國簽署了布萊切利宣言,一時風頭無兩。但隨後,英國的路線出現了一個微妙但重要的轉向。
2025 年 2 月,英國將「AI 安全研究所」(AI Safety Institute)更名為「AI 安保研究所」(AI Security Institute)。從「safety」到「security」,這個詞的變化不只是語義遊戲。Safety 涵蓋的範圍很廣——偏見、錯誤資訊、就業衝擊、倫理問題都算;Security 則聚焦在更狹義的國家安全威脅——網路攻擊、軍事應用、關鍵基礎設施保護。美國隨後也跟進,把自己的 AI 安全研究所改名為 CAISI(Centre for AI Safety and Innovation, 改名後偏重安保面向)。
這個轉向意味著什麼?英國和美國正在把 AI 治理的重心從「廣泛的社會影響評估」轉向「狹義的國家安全問題」——而後者的特點是:可以在小圈子裡(Five Eyes、G7)處理,不需要 193 國一起談。
在聯合國小組的名單上,英國有一位代表:倫敦政經學院的 Sonia Livingstone,專長是兒童數位權利和媒體素養。這個選擇本身就有意思——不是 AI 安全專家,而是社會影響學者,彷彿在說:技術安全的事我們自己處理,社會影響可以交給聯合國談。
對臺灣的觀察
臺灣不是聯合國會員國,這場治理角力看似與我們無關。但仔細想,它直接影響臺灣的產業定位。
最直接的衝擊是標準制定權。當 AI 的國際科學評估由這個小組主導,它對「什麼是負責任的 AI」「什麼是可接受的 AI 風險」的定義,會逐步滲透到各國的國內法規和國際貿易條件中。臺灣的硬體供應鏈——從台積電的先進製程到伺服器代工——服務的是全球市場。如果國際社會對 AI 模型的訓練和部署建立了新的安全評估標準,臺灣的客戶會要求供應鏈符合這些標準。不在談判桌上,不代表不受影響。
更深層的問題是選邊壓力。美國「完全拒絕」多邊治理、中國積極擁抱聯合國框架——這個分歧會迫使許多國家選邊站。臺灣在安全上依賴美國,在經貿上與兩邊都深度連結。當 AI 治理成為地緣政治的新戰場,臺灣需要找到自己的定位,而不是被動等待。
還有一個容易忽略的面向:知識的連結。40 人名單中沒有臺灣人(也不可能有),但名單中有許多臺灣學術界熟悉的名字——班吉歐、松尾豐、Bernhard Scholkopf。這些人將產出的科學評估報告,會成為全球 AI 政策辯論的基礎文件。臺灣的 AI 研究社群和政策圈應該密切追蹤這些報告,並主動參與相關的學術和技術討論。
這場 AI 治理的大國角力才剛開始。第一份科學報告預計七月出爐,首屆全球對話同月在日內瓦舉行。接下來的幾個月,才是真正的觀察窗口。