Palantir 的「道德灰色地帶」——當 AI 遇上國家機器
Palantir CEO Alex Karp 在紐約時報峰會上為公司與 ICE 的合作辯護:「你越想讓移民執法合乎憲法,你就越需要我的產品。」這篇文章探討 AI 公司與政府合作的道德困境,以及「技術中立」論述在現實中的侷限。
本文整理自 Palantir CEO Alex Karp 在紐約時報 DealBook 峰會的訪談(2024 年 12 月)。 原始影片:YouTube
「你越想讓移民執法合乎憲法、越想讓它精準,你就越需要我的產品。」
這句話出自 Palantir 執行長 Alex Karp,在紐約時報 DealBook 峰會上。主持人正在追問 Palantir 與美國移民執法局(ICE)的合作是否「合乎憲法」,Karp 的回應卻把問題翻了過來。
這就是 Palantir 最讓人不安的地方:它的存在讓你很難用簡單的「對」或「錯」來評判。
Palantir 是什麼公司?
先說背景。Palantir 成立於 2003 年,創辦人包括 Peter Thiel(PayPal 共同創辦人、知名川普支持者)和 Alex Karp。公司名稱來自《魔戒》裡的「真知晶球」(palantír)——一種可以遠距離窺視的魔法石。
這個名字取得很貼切。Palantir 的核心業務就是幫助政府和企業「看見」他們原本看不見的東西。它的軟體可以整合來自不同來源的海量資料——監控攝影機、社群媒體、金融紀錄、通訊記錄——然後找出其中的模式和關聯。
早期客戶主要是情報機構。據報導,Palantir 的軟體在獵殺賓拉登的行動中扮演了角色。後來業務擴展到軍方、執法單位,以及商業客戶。
今天,Palantir 市值超過 1,700 億美元,擠進全球最有價值公司的前 30 名。客戶名單很精彩:美國國防部、CIA、FBI、ICE,還有以色列國防軍和摩薩德。
也正是這份客戶名單,讓 Palantir 成為矽谷最具爭議的公司之一。
ICE 合約:技術中立還是政治站隊?
Palantir 與 ICE 的合作從 2014 年就開始了,但在川普時代變得特別敏感。川普政府的「零容忍」移民政策導致了大規模的家庭分離,而 Palantir 的軟體正是 ICE 用來追蹤和逮捕非法移民的關鍵工具之一。
這引發了一連串問題:
Palantir 是否該為 ICE 的執法方式負責?一家提供「資料分析工具」的公司,是否等同於「參與」了執法行動?如果工具本身是中性的,那責任應該由誰來承擔?
Karp 在訪談中的立場很明確:Palantir 的工具讓執法更精準、更合乎憲法,這是好事,不是壞事。
「你需要知道東西在哪裡、怎麼移動、在什麼條件下、屬於誰。」他說。「如果你想讓執法合乎憲法,你就需要這種精準度。」
這個論點有一定道理。盲目的大規模掃蕩確實比精準的定向執法更容易侵犯人權。如果 Palantir 的工具能幫助 ICE「只抓該抓的人」,理論上應該減少誤傷。
但批評者不買帳。他們認為,問題不在於執法是否「精準」,而在於這些執法行動本身是否正當。如果政策本身有問題,那幫助它「更有效率地執行」只會讓問題更嚴重。
這就是「技術中立」論述的困境:工具本身可能是中性的,但工具的使用脈絡不是。
前員工的公開信 vs. Karp 的回應
2024 年,13 位 Palantir 前員工聯名發表了一封公開信,指控「Palantir 的領導層已經背棄了公司創立時的理想」。
Sorkin 在訪談中問到這封信,Karp 的回應很乾脆:
「我們有 5,000 名前員工,4,000 名現職員工。你找到了 13 個人。」
「而且我們鼓勵不同意見的文化。任何人都可以來看看,你會發現至少有一半的人在任何議題上都不同意我。」
這個回應很 Karp——用數字稀釋問題的嚴重性,同時把公司塑造成「包容異見」的地方。
但這沒有回答核心問題:這 13 個人提出的質疑有沒有道理?Palantir 是否確實偏離了某些創立時的原則?
有趣的是,Karp 在同一場訪談中也承認了一些事情。他說 Palantir 是「軍工複合體的一部分」,說公司的使命就是讓美國和盟友「相對於對手擁有優越地位」。這些話在十年前的矽谷是不可能說出口的。
某種程度上,Karp 不是在「背叛」Palantir 的理想,而是把一直存在但不願明說的東西說出來了。
AI 時代的「國防承包商」該怎麼看?
Palantir 的爭議,其實是一個更大問題的縮影:AI 公司應該如何與政府合作?
傳統的國防承包商——洛克希德·馬丁、雷神、波音——大家已經習慣了。它們造戰鬥機、造飛彈、造軍艦,這些業務的「道德灰色地帶」早已被社會消化。
但 AI 公司不一樣。它們的產品是「軟體」和「演算法」,看起來沒有武器那麼暴力,但影響可能更深遠。臉部辨識可以用來抓逃犯,也可以用來監控異議人士。預測分析可以用來防止恐怖攻擊,也可以用來做種族歸納。
Palantir 的尷尬在於:它太大、太成功,已經無法假裝自己只是一家「中性的科技公司」。但它又不像傳統軍火商那樣有明確的產品線可以評判。它賣的是「能力」,而這種能力可以被用在任何地方。
Karp 在訪談中引用了杭廷頓的觀點:「西方的興起不是因為理念的優越,而是因為運用有組織暴力的優越。」
這話聽起來很冷血,但它點出了一個現實:如果你相信某些價值觀值得捍衛,你就需要有能力捍衛它們。而在 2024 年,這種能力越來越依賴 AI 和資料分析。
問題是:誰來決定這些工具被用在「對的地方」?
沒有簡單答案的問題
這篇文章沒有結論。
Palantir 的故事沒有簡單的道德判斷。你可以說它幫助政府維護國家安全。你也可以說它讓威權主義的工具變得更強大。兩者可能同時為真。
Karp 自己說得很清楚:「我們站在勞動階級美國人那邊。我們支持參軍的人。我們的 AI 讓工人更有價值。」這是他的敘事。
但 13 位前員工也有他們的敘事:「領導層已經背棄了創立時的理想。」
在 AI 時代,這種張力只會越來越大。每一家有能力的 AI 公司,遲早都要面對這個問題:你的技術會被誰使用?用來做什麼?你能接受嗎?
Palantir 選擇了它的答案。其他公司也會選擇它們的。
而作為使用者、公民、投資人,我們也在做選擇——即使我們沒有意識到。
如果你是 AI 新創的創辦人,你會接政府的國防或執法合約嗎?紅線在哪?這題沒有標準答案,但遲早要面對。