AI 技術前沿

地球電網撐不住 AI,Nature Electronics 論文提出解方:把資料中心搬上太空

全球資料中心用電量預計 2030 年翻倍至 945 TWh,愛爾蘭和新加坡已祭出建設禁令。新加坡南洋理工大學團隊在 Nature Electronics 發表論文,提出軌道邊緣資料中心與軌道雲端資料中心兩大框架,利用太空的無限太陽能與深太空散熱實現碳中和算力。

來源: Nature Electronics
地球電網撐不住 AI,Nature Electronics 論文提出解方:把資料中心搬上太空

封面圖


資料中心正在壓垮地球的電網

2024 年,全球資料中心吃掉了 415 TWh 的電力,大約占全球總用電量的 1.5%。這個數字聽起來不大,但背後的成長曲線很嚇人。國際能源署(IEA)預估,到了 2030 年,這個數字會翻倍到 945 TWh,超過日本一整年的用電量。美國更誇張,資料中心用電預計從 2024 年的 183 TWh 暴增到 2030 年的 426 TWh,成長 133%。

問題不只是數字本身,而是它正在壓垮具體的社區。愛爾蘭的資料中心已經吃掉全國 21% 的電力,都柏林在 2021 年直接下了資料中心建設禁令,一禁就是四年,直到 2025 年底才解禁,但附帶嚴格條件:業者必須自備發電設備,六年內達到 80% 再生能源,必要時還得回輸電力給國家電網。新加坡也在 2019 年祭出建設禁令,後來改成競標制,只准高能效設施通過。在美國,超過 230 個環保團體要求國會暫停資料中心建設審批,2023 年以來累計約 640 億美元的專案被取消或延後。

AI 是這場能源危機的主要推手。訓練一個大型語言模型動輒需要數千張 GPU 連續運算數週,推理階段的耗電更是隨著使用者量級成長。IEA 估計,資料中心將吃掉 2030 年前全球新增電力需求的 20% 以上。在美國和日本,這個比例更高,未來五年約一半的新增用電需求來自資料中心。各大雲端業者拼命採購再生能源、蓋核電廠、簽長期購電合約,但遠水救不了近火。地球上的電網,真的快不夠用了。

太空:天生的碳中和運算環境

地球忙著為資料中心找電,有一群研究者換了個思路:如果問題是能源和散熱,太空不就是天生的解方嗎?

2025 年,新加坡南洋理工大學(NTU)計算機科學校長講席教授文勇剛(Yonggang Wen)和第一作者 Ablimit Aili 等人在 Nature Electronics 發表了一篇 Perspective 論文,標題是《The development of carbon-neutral data centres in space》。論文的核心主張很直接:太空有兩項地球上求之不得的資源。一是不受天氣和夜晚影響的充沛太陽能,二是溫度接近絕對零度的深太空本身,等於一個天然的巨型散熱器。兩者結合起來,資料中心在太空運算時的 Scope 2 碳排放(用電產生的間接排放)理論上可以歸零。

文勇剛是華裔學者,MIT 博士出身,長期研究綠色資料中心與智慧建築,2020 年當選 IEEE Fellow,2022 年當選新加坡工程院院士。他領導開發的「DCWiz」認知數位孿生平台,專門用於資料中心的能效管理。這篇論文背後,是他十多年在資料中心能效領域的積累。第一作者 Ablimit Aili 則是輻射冷卻(radiative cooling)的專家,在美國科羅拉多大學波德分校取得博士學位,曾開發千瓦級、全天候運作的輻射天空冷卻系統。他在 NTU 做博士後研究期間完成了這篇論文,目前已轉任浙江大學特聘研究員。

論文提出了兩個框架,分別對應不同的應用場景。

框架一:軌道邊緣資料中心

第一個框架叫做「軌道邊緣資料中心」(Orbital Edge Data Centre),解決的是太空本身產生的資料處理問題。

截至 2022 年底,地球軌道上已有近 7,000 顆運作中的商業衛星,光是 2022 年一年就新發射了超過 2,000 顆。SpaceX 的 Starlink 星座就有約 4,500 顆,OneWeb 約 630 顆,Planet Labs 約 150 顆。這些衛星每天產生驚人的資料量。NASA 的 SWOT 和 NISAR 兩顆衛星每天就產生約 100 TB 的資料。根據 Starlink 的公開數據,每顆 Starlink 衛星平均每天傳輸 14 到 20 TB 的資料。

傳統做法是把這些資料全部傳回地面站,再由地面的資料中心處理。但這帶來兩個問題:一是延遲,從衛星到地面站的傳輸需要時間,對災害管理、即時監控等應用來說很致命;二是進一步加重地面資料中心的負擔。

論文的解法是:直接在衛星上裝 AI 加速器(如 NPU、GPU、FPGA、ASIC),讓衛星在太空中就完成資料的處理和篩選,只把處理後、體積大幅縮小的結果傳回地面。這樣一來,衛星星座本身就變成了分散式的邊緣運算網路。每顆衛星收集資料,就地處理,等到下一輪資料收集開始前持續運算,形成一條「管線」(pipeline)。

技術上已有進展。AMD 設計了抗輻射的 Versal Adaptive SoC,結合 FPGA 和多種處理器,可以在太空環境下運作。義大利團隊測試了商用視覺處理晶片在輻射環境中的表現,認為可以用在軌道任務。HPE 的 Spaceborne Computer-2 已經在國際太空站上運行,搭載 Qualcomm Snapdragon SoC,成功跑了多種遙測影像處理演算法。NTT、OrbitsEdge、美國太空發展署等機構也在開發商用規模的軌道邊緣運算設施。甚至有一家叫 Lonestar Data Holdings 的新創,拿到資金要在月球上蓋邊緣資料中心。

框架二:軌道雲端資料中心

第二個框架更有野心,叫做「軌道雲端資料中心」(Orbital Cloud Data Centre)。這不再只是處理衛星自己產生的資料,而是要接住從地面外包上來的算力需求。

構想是這樣的:在低地球軌道(LEO)部署一個由運算衛星組成的星座,每顆衛星搭載通用伺服器(包含 CPU、RAM、SSD、GPU 等)和寬頻通訊設備。地面使用者透過衛星寬頻上傳運算任務,軌道上的資料中心處理完再回傳結果。因為 LEO 衛星的軌道高度只有幾百公里,地面使用者到軌道資料中心的距離,可能比到最近的地面資料中心還近。

散熱是關鍵挑戰。傳統衛星上的低功耗處理器靠被動傳導和輻射散熱就夠了,但如果塞進高效能伺服器,發熱量會大幅增加。論文提出使用主動輻射冷卻系統:透過循環冷媒把熱量帶到衛星表面的輻射散熱板,再向深太空輻射散熱。國際太空站已經在用類似的系統。論文分析了太陽能電池板和輻射冷卻器在太空中的功率密度,發現由於深太空溫度極低(約 3K),輻射冷卻在太空中比在地面更有效率,而且在更低的溫度下就能達到與太陽能發電匹配的散熱功率。

論文還提出了一個「碳感知多雲方案」(carbon-aware multicloud solution)。使用者不是非得選軌道或地面,而是根據兩者的碳足跡動態切換。當地電網碳強度高?任務往軌道丟。已經是全綠電了?用地面就好。這跟現在雲端業者在不同地區資料中心之間調度工作負載的邏輯一樣,只是多了一個維度:太空。

生命週期碳足跡:太空算力真的比較乾淨嗎?

太空運算本身是碳中和的沒錯,但把伺服器送上太空要燒火箭燃料,製造衛星要用電,退役後還會變太空垃圾。把這些全算進去,太空算力真的比地面乾淨嗎?這是全篇論文最關鍵的問題。

論文提出了「生命週期碳使用效率」(life-cycle CUE)的評估方法,把所有碳排放分成三個範疇。Scope 1 是直接排放(如備用發電機)。Scope 2 是用電間接排放,在軌道資料中心裡因為用太陽能,理論上為零。Scope 3 是其他間接排放,包括製造衛星和伺服器的碳排、發射火箭的碳排、退役後的碳排等。

研究團隊以 Dell R740 伺服器為參考(因為這是少數有完整生命週期評估的伺服器),假設每顆運算衛星搭載三台伺服器,星座規模與 Starlink 相當,用 Falcon 9 火箭發射。分析結果顯示:在伺服器壽命四年的情況下,軌道資料中心的生命週期 CUE 接近由全再生能源供電的地面資料中心,而且明顯優於使用中等碳強度電網的地面資料中心。Google 資料中心 2019 到 2022 年的平均生命週期 CUE 是 1,050 gCO2e/kWh,遠高於軌道資料中心。

在一次性碳排放的結構中,伺服器製造(含輻射冷卻器)占 54%,衛星本體製造占 36%,火箭發射只占約 10%。這意味著,如果未來晶片製造能進一步減碳,軌道資料中心的碳效率還能再提升。伺服器壽命越長,一次性碳排被攤薄的效果越好,生命週期 CUE 也越低。

論文也坦承幾個重大限制。Dell R740 並未經過太空輻射測試,也沒有抗輻射設計,所以在太空中的實際壽命和運算能力存在很大不確定性。如果要用抗輻射伺服器,製造成本、複雜度和功耗都會增加。此外,目前沒有成熟的太空硬體回收技術,退役設備會變成太空垃圾,最終在大氣層燒毀,釋放有害化學物質,這在地面資料中心是不存在的問題。在成本方面,論文估計一顆運算衛星的每台伺服器資本成本是伺服器本身的近 20 倍,這個價格看起來很嚇人,但因為衛星同時具備寬頻通訊功能,雙重用途可以提高成本效益。

論文之外:產業界已經在動了

這篇論文在 2025 年底刊出時,太空算力已經不只是學術概念了。好幾家科技巨頭和新創正在把論文裡的框架變成真實的硬體和商業計畫。

Starcloud(原名 Lumen Orbit)是一家 Y Combinator 孵化的新創公司,種子輪就拿到 2,100 萬美元,有 200 家創投搶著投。它已經在太空部署了 NVIDIA H100 等級的運算系統,成為首家在太空訓練大型語言模型的公司,還在軌道上跑過 Google Gemini。2026 年 2 月,Starcloud 向 FCC 提交了最多 88,000 顆衛星的軌道資料中心星座申請,計劃 2026 年 10 月發射搭載 NVIDIA Blackwell 平台的下一代衛星。

Google 也沒閒著。2025 年 11 月,Google 發表了 Project Suncatcher 計畫,打算用搭載 TPU 晶片的太陽能衛星組成運算叢集。Google 已經與 Planet Labs 合作,預計 2027 年初發射兩顆原型衛星,每顆搭載四片 TPU。實驗已達到 1.6 Tbps 的光學傳輸速度,輻射測試也顯示 TPU v6e 能承受 LEO 軌道五年任務的輻射劑量。

歐盟則走大型基礎建設路線。由 Thales Alenia Space 主導的 ASCEND 計畫,獲得 Horizon Europe 經費資助,目標在 2050 年前部署 1 GW 太空算力,首次飛行任務就定在 2026 年。

SpaceX 的動作最激進。2026 年 1 月底,SpaceX 向 FCC 申請部署最多 100 萬顆軌道資料中心衛星,與 Starlink 整合。如果這個計畫成真,它將直接挑戰 Microsoft、Amazon、Google 等雲端巨頭的地位。

我的觀察:太空算力離臺灣有多遠?

這篇論文最有價值的地方,不是它的構想多前衛,而是它給了一套可量化的分析框架。生命週期 CUE 的方法讓我們可以比較太空和地面資料中心的真實碳足跡,而不是停留在直覺層面的爭論。

但我覺得更值得注意的是產業界的速度。從 Starcloud 在太空跑 LLM、到 Google 把 TPU 送上軌道、到 SpaceX 申請百萬衛星,這些事情都發生在過去一年之內。太空算力從學術論文走到工程驗證的速度,比多數人預期的快得多。

對臺灣來說,這件事有兩層意義。第一層是半導體:不管是抗輻射晶片、太空等級的 AI 加速器、還是太陽能電池,這些硬體的製造最終都會回到半導體供應鏈。台積電已經是地面 AI 晶片的絕對王者,太空 AI 晶片的需求只會進一步鞏固這個地位。第二層是能源政策:臺灣自己也面對 AI 資料中心吃電的壓力,台電 2025 年的備轉容量已經拉警報。如果太空算力在五到十年內真的成為可行選項,它會改變我們對「AI 基礎設施應該蓋在哪裡」的根本假設。

當然,現階段太空資料中心還有太多技術和經濟瓶頸要克服:宇宙輻射對先進製程晶片的傷害、資本成本比地面高 20 倍、太空垃圾的環境代價。這篇論文也坦承,它呈現的是「最佳情境」,實際表現可能打很大的折扣。

但方向已經很清楚了。地球上的電網撐不住 AI 的胃口,太空有地球沒有的能源和散熱條件。這不是科幻小說的情節,而是 Nature Electronics 刊出的同儕審查論文,以及正在向 FCC 提交申請的商業計畫。接下來幾年,我們會看到太空算力從概念驗證走到小規模商用。到那時候,「你的 AI 模型是在地球上訓練的還是太空裡訓練的?」可能會變成一個真實的問題。