諂媚、獻金、說謊?中東戰爭,美國這對AI宿敵徹底撕破了臉?
本就動盪的中東地區重燃戰火,很可能是AI時代的第一次全面戰爭。
不久前,美國和以色列對伊朗發起了代號為“史詩之怒”的聯合軍事行動,對德黑蘭政府高層、核設施、導彈基地、防空系統以及海軍艦艇進行了全方位轟炸襲擊。作為回擊,伊朗也向設有美軍基地的周邊9個國家發起導彈與無人機轟炸。
近日,美國戰爭部與AI行業領頭羊OpenAI簽署了一份將人工智能部署於軍事用途的合作協議。這兩件事或許只是時間上的巧合,但巧合背後或許卻具有曆史意義。
而OpenAI之所以會接下這個項目,是因為他們的直接競爭對手Anthropic拒絕了美國戰爭部的最後通牒,拒絕向美軍全面開放AI使用,拒絕將AI用於監控美國民眾以及自主武器系統,從而被美國政府全面拉黑。
就在昨天,媒體曝光了Anthropic一份1600字的內部備忘錄,讓外界全面瞭解了這場AI公司與美國政府首次里程碑式的對峙,也揭示了這場衝突背後遠比技術分歧更複雜的政治邏輯。
Anthropic CEO達里奧·阿莫迪(Dario Amodei)在備忘錄中嘲諷,自己與美國政府關係惡劣是因為沒有像同行那樣給白宮捐款以及沒有向白宮吹捧恭維。他繼續指責同行,在OpenAI與戰爭部合作協議背後,所謂的安全防範只是逢場作戲。

美軍指定AI服務商
為什麼是Anthropic?儘管Anthropic並不是AI行業的最大巨頭,消費端用戶基數與OpenAI及Google差距明顯,但他們卻是企業市場當之無愧的領頭羊。在企業級LLM市場,Anthropic的市場份額高達32%,排名第一;而在編程與智能工作這個最具價值的細分市場,Anthropic的Claude則佔據著70%市場份額的壓倒性優勢。
Anthropic的年化收入已經達到190億美元,其中80%來自企業客戶。就在上個月,Anthropic 完成了由 GIC 領投的 300 億美元 G 輪融資,估值達到 3800 億美元。投資者普遍認為其在“治理合規”和“機構信任”方面的護城河是Google和 OpenAI 難以踰越的。
雖然 OpenAI、Google和 xAI 都拿到了美國戰爭部的2 億美元合同,但 Anthropic 的 Claude 卻是唯一一個被允許部署在美軍最高級別涉密網絡上的大模型。他們與大數據服務商Palantir,再加上亞馬遜AWS雲服務,相當於美軍的AI鐵三角。

具體而言,Palantir 提供了大數據分析骨架,而Claude 則充當了其“認知引擎”。這種組合讓美軍能夠以“機器速度”處理海量衛星圖像和信號情報,迅速做出作戰決策。今年年初美軍強擄委內瑞拉總統馬杜羅的軍事行動就是兩家公司強強組合的範例。
據事後披露,美軍就是利用 Claude的邏輯推理能力,在 Palantir的平台上快速處理截獲的各種情報與衛星圖像,交叉比對旅行記錄和財務數據,最終確認馬杜羅的實時位置。最終美軍將馬杜羅強擄至紐約,導致數十名古巴和委內瑞拉士兵死亡,自己卻無人陣亡。
此次美國與以色列對伊朗發起大規模襲擊,同樣使用了Claude與Palantir的組合,用於情報評估、目標識別和戰場場景模擬。換句話說,美國政府週五下令封禁Claude,週六攻擊伊朗用的還是Claude。
這對五角大樓來說同樣是個大問題。直到最近,Claude 仍是唯一被允許進入軍方機密系統的AI工具。政府官員表示,Claude 在某些方面比其他替代方案更好,也承認如果要把 Anthropic 的工具從現有系統中移除,將會是一個非常混亂的過程。
兩條AI技術使用底線
既然Claude已經被用於美軍對外作戰而且效果顯著,為什麼他們會與美國戰爭部鬧翻?主要就是兩條AI技術使用底線。
Anthropic在與戰爭部的談判中,堅持在合同中寫入兩項明確禁止條款:一是禁止將其AI用於對美國公民的大規模國內監控,二是禁止將其AI用於完全自主的致命武器系統。這兩項要求,戰爭部都拒絕以明文寫入合同。戰爭部的立場是:AI可用於“任何合法目的”。
阿莫迪在備忘錄中具體寫道,戰爭部提出了最後一個要求:刪掉合同中關於“批量獲取數據分析”的限制性表述。這正是“合同中與我們最擔憂的場景完美對應的那一行”——AI利用大規模彙集的美國公民通信數據進行訓練,實現國內大規模監控。Anthropic拒絕在這一條上作出任何讓步。

雙方為此僵持不下。在設定的最後期限過後,美國戰爭部隨即宣佈Anthropic為“國家安全供應鏈風險”。而特朗普總統則公開稱Anthropic為“激進左翼、政治正確公司”。而僅僅數小時之後,OpenAI就宣佈簽署了被Anthropic拒絕的合同。
支持Anthropic的科技行業團體已經行動起來——英偉達、Google等Anthropic投資方組成的行業聯盟向美國戰爭部發函,對將一家美國公司認定為供應鏈風險表示關切,這一認定通常是針對與外國對手有關聯的企業的。Anthropic表示將在法庭上挑戰這一認定。
考慮到Anthropic八成收入來自企業客戶,被列入美國政府的“供應鏈風險”,可能會讓這家AI初創公司損失慘重,更會給他們今年預定的首次公開募股(IPO)帶來重大風險。因為被列入美國政府黑名單之後,諸多持有政府合同的企業客戶只能被迫放棄Anthropic的產品。
明著讚賞,迅速接盤
儘管OpenAI CEO山姆·奧特曼(Sam Altman)當天還在公開場合支持Anthropic堅守自己的安全底線,讚賞Anthropic重視安全,但迅速接過了Anthropic放棄的戰爭部合同。這種無縫銜接和“假惺惺”表態顯然讓阿莫迪非常不滿。
值得一提的是,Anthropic與OpenAI本就存在曆史淵源與宿怨。Anthropic的創始團隊主要來自OpenAI,他們由於對奧特曼的產品與商業方向不滿,因而選擇離開自立門戶。因為OpenAI推出廣告計劃,Anthropic還斥資千萬美元在超級碗打廣告嘲諷對手,引發奧特曼憤怒回擊。

更為有趣的是,在上個月的印度AI峰會上,奧特曼與阿莫迪正好被主辦方安排站在一起,兩人互相無視對方,甚至無視印度總理莫迪的要求,連禮節性地握手都沒有。現場氣氛相當尷尬。
此次戰爭部合同事件,阿莫迪更是異常憤怒。他在內部備忘錄中寫道,OpenAI的交易不過是“安全劇場”,奧特曼“把自己呈現為和平締造者和交易撮合者”,但那是“徹底的謊言”。
需要解釋一下,“安全劇場”這個詞最早由計算機安全專家布魯斯·施奈爾(Bruce Schneier)在其著作《超越恐懼》中創造,專門用來描述那些給人“更安全的感覺”、但實際上對安全幾乎沒有實質改善的措施。
阿莫迪的意思是,OpenAI與戰爭部簽的AI合同,列了幾條聽起來很負責任的“紅線”(不用於國內監控、不用於自主戰爭武器),但這些條款全都依賴政府自己解釋什麼叫“合法”,沒有任何可獨立核實、強製執行的機制,並不存在Anthropic那樣的堅守底線。
看得出來,阿莫迪對OpenAI極度不滿。他甚至直言不諱地表示,“我們之所以被戰爭部和特朗普政府針對,真正的原因是:我們沒有給特朗普捐款(而OpenAI和高管們卻捐了很多),沒有像他們那樣對總統大加讚美,我們支持AI監管(這與他們的議程相悖),我們真正坐守了AI紅線,而不是像他們一樣製造‘安全劇場’來安撫員工。”
他指的是去年特朗普就職典禮時,奧特曼以個人名義捐款了100萬美元,而OpenAI總裁格雷格·布羅克曼(Greg Brockman)隨後還向支持共和黨的MAGA超級政治行動委員會捐款2500萬美元。此外,奧特曼多次在接受公開採訪時對總統大加讚賞,更隨著白宮一道出訪。
雖然諸多超級富豪和科技巨頭都爭相討好本屆政府,在捐款方面更是一擲千金,但相比之下,Anthropic始終與政府保持著距離。這也是阿莫迪指責OpenAI的底氣所在。
解釋遭受普遍質疑
OpenAI當然不願意遭受指責。該公司在官網發佈長文,聲稱其與戰爭部的合同包含三條“紅線”:不得用於大規模國內監控、不得在需要人類控製的情況下指揮自主武器系統、不得用於需要人類審批的高風險自主決策。
奧特曼本週承認 OpenAI 最初合同確實存在缺陷,並宣佈公司已經重新談判,達成了他所稱的更強安全保障。他隨後還專門強調,他們補充修訂了合同語言,明確不得包括針對美國國內的監控。
然而,Anthropic卻再次打臉奧特曼,指出了這個說法的根本漏洞:OpenAI的合同允許政府將AI用於“所有合法目的”,而判斷什麼“合法”的權力,解釋權在於美國政府自身。
不僅是Anthropic質疑奧特曼的解釋,諸多行業分析人士也不相信OpenAI會堅守底線。很多人提出,如果美國戰爭部改變了態度,接受了OpenAI設置的三條紅線,他們此前就不會和Anthropic鬧翻。

OpenAI前安全部門負責人史蒂文·阿德勒(Steven Adler)在X上寫道,OpenAI“希望你相信國家情報局(NSA)被排除在他們的合同之外”,但沒有任何強有力的證據支撐這一說法,公眾為何應該相信?
批評者也同樣指出:美國情報機構在棱鏡監控項目中,正是以“合法”為由,在《外國情報監視法》的模糊框架下,將數百萬普通美國公民的通訊數據一網打盡。Anthropic並沒有因為這些“合法”就放棄自己的標準。而OpenAI則模糊了這一邊界。
更深層的問題在於:“人類監督”究竟意味著什麼?OpenAI前地緣政治團隊負責人薩拉·肖克(Sarah Shoker)在Substack上指出,國防工業界對於自主武器中“充分的人類監督”尚無共識定義。
一名士兵對著AI的推薦目標點一下“確認”,算不算人類監督?還是必須有人逐一審閱每個打擊決策?在當代戰場的時間壓力下,這個問題的答案可能決定數千人的生死。
值得一提的是,96名OpenAI員工在公司宣佈簽約前聯署公開信,要求管理層“繼續拒絕戰爭部當前關於允許使用我們的模型進行國內大規模監控和在沒有人類監督的情況下自主殺人的要求”。
AI戰爭邊界模糊
AI在現代戰爭中的主要應用路徑清晰可見:情報快速彙總(將海量偵查數據壓縮為可操作情報)、目標生成(從傳感器數據中自動識別和排列打擊優先級)、戰場態勢感知(整合多源信息繪製實時戰場圖景)、後勤與指揮決策輔助。這些功能單看似乎只是“輔助工具”,但當它們被串聯起來,構成一條從感知到殺傷的完整鏈條時,性質已經根本改變。而這正是Claude與Palantir組合的威力所在。
從傳感器數據到AI解讀,再到目標選擇,再到武器激活;其中的一個關鍵風險是:這整個鏈條可能在幾乎沒有人類控製或意識的情況下完成。

這不是假設性場景。以色列在加沙衝突中廣泛使用的Lavender系統,被前情報官員描述為一台每天可以自動生成數百個打擊目標的AI機器。操作流程中,人類審核每個目標的平均時間不足一分鍾,有時甚至不到20秒。目標一旦生成,即進入打擊流程。換言之,人類監督已經變成了橡皮圖章,而非實質辨別。
除了AI用於作戰自動化,這場爭議還留下了幾個無法迴避的根本性問題。
誰有權定義“合法”?如果AI使用邊界由政府自行解釋,那麼安全護欄就不是護欄,而是政治工具。Anthropic的堅持,至少是在用合同條文來固化一條寫在紙上的邊界,即便這條邊界不完美。而OpenAI的合同處理方式,則模糊了這一紅線。
科技公司是否有能力和勇氣對抗來自全球最強勢政府的壓力?
每一次,科技公司都在輿論壓力、商業利益和政府壓力之間博弈。只不過,他們的猶豫越來越少。
2018年,GoogleMaven項目曾引發4000名員工聯名抗議,最終Google宣佈不再續約,但最終微軟與亞馬遜接過了這個項目。2019年,微軟員工抗議向美軍提供HoloLens增強現實頭盔用於戰場;2024年,Google員工再次抗議Project Nimbus以色列雲計算合同,但沒有任何效果。

去年夏天,Google、Anthropic、OpenAI、xAI四家前沿AI公司,均各自獲得了上限2億美元的戰爭部合同,被要求開發跨越作戰、情報和企業系統的“主體性AI工作流”。只不過Anthropic拿到了最核心的機密權限。
但這一次,當OpenAI簽下戰爭部合同的時間點,與美以聯合空襲德黑蘭的時間點幾乎完全重疊,震撼是前所未有的。Anthropic的這次抗拒,無論最終談判結果如何,展示了另一種可能:至少在某一時刻,有一家公司選擇了不妥協。
但他們不配合,總會有同行願意做。(轉載自新浪科技)








