千元就能控AI回答!3·15曝光「AI 投毒」後 GEO換馬甲生意照做

來源:財聯社

《科創板日報》3月16日訊(記者 李佳怡 黃心怡)3·15曝光後,GEO「AI投毒」生意,仍在繼續。

今日,《科創板日報》記者調查發現,閑魚等平台已屏蔽「GEO優化」等直白關鍵詞,但改用「引擎優化」等隱蔽詞搜索,仍能發現相關商家正在售賣。有服務商向記者報價:軟件服務398元/月或1980元/年,代運營則高達3980元/季度至9800元/年,並承諾覆蓋豆包、DeepSeek、ChatGPT等主流AI平台。

快思慢想研究院院長田豐向記者稱,GEO黑產的本質是從過去20年的搜索引擎優化「搶排名」,走向了更致命的「認知操縱」,「這絕不僅僅是一個普通的虛假宣傳問題,它正在動搖AI商業化落地的最核心資產——用戶信任。」

▎3·15曝光後,「GEO優化」換馬甲

央視財經頻道在3·15晚會中曝光了GEO黑色產業鏈的完整操作鏈條。據央視報導,業內人士在電商平台上隨機購買了一款名為「力擎GEO優化系統」的軟件,隨後使用該軟件生成了十餘篇智能手環的宣傳軟文。

當這些文章被發佈到業內人士提前準備好的自媒體帳號後,僅過了兩個小時,該虛假信息就被某AI大模型抓取,同時大模型在回答相關問題時直接「照搬」了此前生成的虛假話術。

那麼3·15晚會曝光之後,這條通過批量製造虛假信息操縱AI回答的生意,目前情況如何?

3月16日,《科創板日報》記者在閑魚等電商平台搜索「GEO優化」「GEO引擎優化」等關鍵詞,發現已無法顯示相關內容。不過,如果改用「引擎優化」等相對隱蔽的關鍵詞進行搜索,仍能檢索到相關商家的售賣信息。

據售賣GEO服務的商家向《科創板日報》記者介紹,GEO優化目前分為兩種模式:軟件服務與代運營。

具體來說,軟件服務即客戶購買該公司的GEO優化系統,根據指南自行操作,價格為398元/月(含部分算力)或1980元/年(無限算力);代運營則是由服務商提供專業運營人員操作,價格高達3980元/季度或9800元/年。

「可以確保在AI平台上搜索與你們產品相關信息的時候,能夠找到相關公司信息。」當記者詢問具體可覆蓋哪些AI平台時,該工作人員表示:「豆包、DeepSeek、元寶、ChatGPT、千問等主流AI平台,基本都能覆蓋。」

值得注意的是,當記者提出質疑:「3·15不是剛曝光GEO有問題嗎?萬一你們回頭被查封了,我們的錢不就白花了嗎?」該工作人員的態度隨即轉為謹慎,僅簡短回應道:「不放心的話,就買軟件自己操作吧。」

為進一步瞭解內幕,《科創板日報》記者獲取了一份名為「GEO優化用戶操作」的文件。這份長達30頁的PDF詳細拆解了如何系統性地「馴服」AI。

根據文件描述,GEO(AI搜索推薦 / AI搜索優化)指通過內容發佈手段,讓企業品牌及產品信息在DeepSeek、豆包等AI大模型的生成答案中獲得優先展示。其核心邏輯是「答案即廣告」,實現「一搜即見、一問即答、一查即信」的營銷效果。

據介紹,GEO的整套操作被設計為一套標準化流程:首先是「AI蒸餾」,即輸入需要優化的主關鍵詞和公司品牌,系統會自動拓展出大量相關問題,例如「XX產品哪家好」「可靠的XX公司」;隨後,系統會基於這些問題自動生成對應的文章和標題;最後,通過開啟本地客戶端,每天可將這些內容自動發佈至網易、搜狐、百家號、知乎、小紅書等多個自媒體平台,形成覆蓋全網的信息矩陣。

與此同時,系統也會自動查詢各大AI平台,檢查優化結果是否被收錄,並附帶生成數據報表。

這種操作實質上,就是利用AI大模型在抓取互聯網信息時難以辨別內容真實性的漏洞,通過批量製造虛假「口碑」來汙染AI的語料庫。當大量看似來自不同自媒體平台的推薦文章被AI抓取並交叉驗證後,虛假信息便悄然轉化為AI的「權威答案」。

▎從「搶排名」到「控大腦」,GEO黑產的本質是「認知操縱」

針對3·15曝光的GEO「AI投毒」產業鏈,快思慢想研究院院長、特邀評論員田豐在接受《科創板日報》記者採訪時表示,對這一現象並不感到意外。他指出,在過去一年中,其與多家頂級大模型安全團隊已將這種「檢索增強生成(RAG)數據汙染」列為了最高級別的行業系統性風險之一。

「這絕不僅僅是一個普通的虛假宣傳問題,它正在動搖AI商業化落地的最核心資產——用戶信任。」田豐強調。

在田豐看來,GEO黑產的本質是從過去20年的搜索引擎優化「搶排名」,走向了更致命的「認知操縱」。SEO時代,用戶看到搜索結果後仍需點擊網頁自行判斷真偽;而GEO黑灰產則直接篡改「真理」與「客觀事實」,讓大模型以極其擬人和權威的口吻給出「標準答案」。

田豐表示,AI的「絕對理性」人設極大放大了虛假信息對公眾的殺傷力,消費者不再具備辨別信息來源的能力,這本質上是一場針對用戶心智的黑客攻擊。

他進一步分析,GEO黑灰產能夠得逞,與主流AI大模型普遍採用的RAG技術存在漏洞有關。

「為瞭解決大模型容易產生「幻覺」和缺乏實時信息的問題,目前主流AI大模型普遍採用了RAG(檢索增強生成)技術。」田豐介紹道,RAG機制即在回答前,先去互聯網上實時抓取證據鏈,「‘AI投毒’灰產正是抓住了這個機制,他們並不是去入侵大模型的底層代碼,而是去‘汙染大模型所呼吸的空氣’(互聯網在線數據)。」

他特別指出,這是一場典型的「非對稱戰爭」:灰產商花費幾十元、幾小時就能自動生成上萬篇「毒餌軟文」;而大模型廠商要從數以億計的實時互聯網長尾數據中甄別剔除這些「看似中立、實則營銷」的內容,算力和人工審核成本是天文數字。

面對這種「AI投毒」事件的氾濫,田豐認為,單靠某一家大模型廠商是無法做到的,需要建立一套「技術-生態-法製」的三位一體縱深防禦體系。

在技術層面,應強化大模型的「免疫系統」,包括重構信源權重與溯源機制、AI對抗AI的前置清洗模型。具體來說,必須建立高置信度的「白名單信源庫」(如官方媒體、權威機構、學術數據庫),並對普通自媒體和社區論壇內容進行嚴格的降權處理。同時,AI的回答必須強製要求展示「引用來源鏈接」;引入紅藍對抗機制,在數據進入RAG上下文窗口之前,部署專門識別「AI生成營銷文本」的攔截小模型。

平台治理方面,應要求國內的主流內容平台,如微信公眾號、小紅書、知乎、各大博客等,必須承擔起AI「數據守門人」的責任。

在法律層面,田豐則建議將「系統性、針對AI大模型的惡意數據投毒」明確界定為新型網絡攻擊和不正當競爭行為,大幅提高黑灰產軟件開發者和使用者的違法成本,從源頭形成威懾。

對於普通消費者而言,業內專家提醒,也應提高自我保護意識,理性看待AI大模型的推薦結果,不要盲目相信AI給出的「標準答案」。在購買產品、接受服務時,應多渠道瞭解相關信息,核實產品的真實情況,避免被虛假信息誤導。