假作真時真亦假:伊朗戰事陷入AI信息迷霧

海灣戰爭是在新興有線電視網絡,尤其是24小時新聞頻道環境下,第一場被實時直播的大型戰爭。現在,美以伊戰爭則正值人工智能(AI)媒體時代的早期,AI生成的輿論戰場正在與導彈穿梭的交戰空間平行展開。

上週末,一架美軍F-15戰機在伊朗上空被擊落,隨後美方發起了一場大規模搜救行動,以尋找從飛機上彈射逃生的兩名機組人員。美國總統特朗普在其社交平台Truth Social上發帖稱,一名飛行員很快獲救,但另一人在偏遠的山坡上避難近兩天,最終被特種部隊救出。

在特朗普宣佈成功營救消息後僅幾小時,社交平台X上流傳一張美國大兵手捧星條旗的照片,配文稱「這是昨天獲救的英勇上校的照片」。正選圖片獲得了超過500萬次瀏覽,隨後被得州州長格雷格·阿博特、得州總檢察長肯·柏克斯頓、紐約州眾議員麥克·勞勒等多名共和黨人轉發。阿博特寫道:「這太棒了」,勞勒則發帖稱:「上帝保佑美國!」

得州州長阿博特轉發虛假圖片。得州州長阿博特轉發虛假圖片。

多個在線檢測工具已高度確定飛行員圖像並非真實,且獲救的飛行員尚未公開身份。

三名共和黨官員刪除了轉發的帖子,仍遭到大量批評和嘲諷。「或許當你身為國會議員時,應該設法確保沒轉發不可靠右翼網紅的AI垃圾。」美國進步派媒體MeidasTouch總編輯朗·菲臘科夫斯基寫道,並分享了勞勒的發帖截圖。

諷刺的是,戰爭的真實影像卻在AI的誤導之下被人們懷疑。3月2日,伊朗南部米拿布一所學校遭空襲後,一張俯瞰照片顯示,當地為遇難者新挖的墳墓整齊地排列成行,直白地記錄了這場戰爭造成的毀滅性平民傷亡。然而,Google旗下AI服務Gemini和X公司的AI助手Grok均認定這張照片並非來自伊朗。此後,多方研究人員將墓穴照片與衛星圖像以及影片片段進行交叉比對,確認了其真實性。

自戰爭開始以來,虛假聲明、AI生成的影片和回收再利用的戰爭影像一直在網上流傳,既有國家敘事的一部分,也有個人為了獲取流量牟利的行為,其結果是影響了公眾對戰爭的認知。同時,當AI被用於混淆真相,一些戰爭暴行被誤認為是偽造的,真相被掩埋將導致對現實世界的傷害無力追責。

被塑造的戰爭敘事

3月1日,伊朗伊斯蘭革命衛隊發佈7號公告,稱美國「阿巴咸·林肯」號航空母艦遭到伊朗四枚彈道導彈襲擊。這在社交平台上引發了大量AI生成的虛假影片傳播,大多描繪了艦艇在火焰中燃燒的畫面,並配以各種語言傳播。

「阿巴咸·林肯」號被導彈擊中的虛假圖像。

當天晚些時候,美國軍方表示,「阿巴咸·林肯」號航母未遭伊朗襲擊,伊朗發射的導彈「甚至沒有接近」該艦。

除此之外,傳播較為廣泛的AI深偽影片內容還包括特拉維夫發生大規模爆炸、杜拜哈利法塔燃起大火等,充斥著巨大的火焰、蘑菇雲和音爆。其中,3月2日,一個冒用伊朗新任最高領袖穆傑塔巴·哈文尼斯伊名字的虛構帳號發佈的哈利法塔起火影片,被數百個帳號轉發。

美國社交媒體情報公司Cyabra聲稱,其網絡活動研究顯示,大多數關於戰爭的AI影片往往是為了虛假地展示伊朗的軍事優勢和先進水平。

據路透社報導,特朗普3月15日聲稱伊隆利用AI作為「虛假信息武器」,歪曲其在戰爭中的勝利和支持。他還在社交平台上發帖,指責西方媒體與伊朗「密切協調」,散佈AI生成的「假新聞」,但他並未提供任何證據。

事實上,美國在數字輿論宣傳方面更是不加掩飾。白宮在X和TikTok上已發佈了十幾段「宣傳影片」,將《使命召喚》的連殺獎勵、《鐵甲奇俠》、《壯誌淩雲》、《勇敢的心》和《海綿寶寶》的影像片段與真實的空襲畫面疊加剪輯在一起,完全沒有區分虛構與實戰。其中一段現已刪除的影片甚至在每次擊中伊朗目標時都疊加了《使命召喚》的「+100」得分提示。

白宮帳號發佈影片,將襲擊伊朗目標的影片疊加電影片段。 白宮帳號發佈影片,將襲擊伊朗目標的影片疊加電影片段。 

這種審美邏輯甚至延伸到了橢圓形辦公室內部。據美國全國廣播公司(NBC)報導,美國軍方官員每天都會為特朗普製作一段兩分鐘的影片,展示最成功的空襲行動,一位官員將其描述為「爆炸場面」。這引發了盟友的擔憂,他們擔心特朗普可能無法全面瞭解戰爭情況。

在此背景下,機會主義者也加入進來,包括名為「傑西卡·科士打」(Jessica Foster)的美軍軍官帳號,發佈了其與特朗普合照的帖子,在Instagram上獲得超過百萬粉絲,隨後將粉絲引向付費帳號,帳號發佈了一系列AI生成的虛假合成圖像,內容包含特朗普以及其他國家首腦。

美媒調查發現,名為傑西卡·科士打的美國軍官並不存在,是由匿名創作者控制的AI生成虛擬形象,Meta最終刪除了該帳號。

雪梨大學媒體與傳播系教授凱瑟琳·蘭比指出,美國一直通過使用迷因(memes)、流行文化和「使命召喚」風格的影片素材來聚焦軍事行動的成功,從而使死者去人性化。這一策略會面臨反噬的風險,戰爭可能被轉變成一種迷因化和遊戲化的競賽。

AI內容檢測技術的「武器化」

在戰場上,AI生成內容帶來的問題不再局限於普通社交媒體用戶被誤導,其規模甚至已經超過了專業新聞編輯室的核查能力。當受眾無法區分真實證據與操縱證據時,關於戰爭代價的關鍵問題,被海量的視覺奇觀所掩蓋。

在本已困難重重的局面中,一種新的現象正在出現,核查工具和方法被應用,不是為了確認素材的真實性,而是為了給既定結論提供「科學權威」的外衣。這也意味著AI檢測和取證分析本身的武器化。

在社交平台上一個被廣泛分享的帖子中,「熱力圖」被用來質疑3月1日德黑蘭東區尼盧法爾廣場襲擊事件的真實圖像,該照片由伊朗官方背景的學生通訊社(SNN)的記者埃爾凡·庫查里(Erfan Kouchari)拍攝,後來被多家國際媒體作為空襲現場的真實新聞照片發表。

在空襲現場圖像在網上流傳後不久,X平台上一名自稱視覺效果師的用戶發佈了所謂的「熱力圖疊加層」以及來自Gemini和ChatGPT的輸出結果,聲稱這些照片「極有可能全是AI生成的圖像」。這些可視化圖表迅速傳播,並被當作圖像造假的證據。

X用戶發帖,用熱力圖和AI檢測質疑圖片真實性。X用戶發帖,用熱力圖和AI檢測質疑圖片真實性。

隨後有專家出面反向「打假」,指出熱力圖本身就是AI生成結果。原圖拍攝者庫查里在Instagram上通過並排發佈爭議圖像的「原圖」和「編輯版」來回應指控,顯示X用戶發的原圖經過了重度後期處理,這會幹擾核查系統。庫查里在發文中流露出了無奈:「即使上傳原片和數百個其他證據,對於那些想把這些照片歸於AI生成的群體來說也無濟於事,明知這些但我還是進行了對比。」

《紐約時報》3月9日發佈的伊朗頓地照片也被指有「數字操縱」跡象,圖片記錄了在宣佈穆傑塔巴·哈文尼斯伊為伊朗新任最高領袖後,德黑蘭民眾聚集的畫面。質疑圖片真實性的社交媒體用戶分享了包括錯誤級別分析(ELA)在內的取證分析截圖,在X上的瀏覽量超過60萬。

《紐約時報》發表了公開回應,指出上述分析「歪曲了標準的圖像壓縮行為」。但在截圖流傳最廣的海外伊朗人社區,關於圖像是AI生成的結論已經根深蒂固。

國際人權組織WITNESS的AI技術專家希林·安倫撰文表示,捏造技術性的取證證據來支持某種說法,其結果是一個危險的反饋循環:真實證據的信任被破壞,而偽造的取證分析進一步侵蝕了對核查本身的信心,檢測工具被用來加深對真實事件甚至傷亡的懷疑與困惑。