一個提示攻破所有模型,OpenAIGoogle無一倖免
多年來,生成式AI供應商一直向公眾保證,大語言模型符合安全準則,並加強了對產生有害內容的侵害。然而,一種看似簡單但非常有效的提示詞策略,能夠讓所有主流大模型開啟「無限制模式」。
如果一句不足200字的提示詞系統就能輕鬆撕開頂級大模型的安全護欄,讓ChatGPT、Claude、Gemini統統「叛變」,你會作何感想?
這正是HiddenLayer最新研究拋出的震撼炸彈——一種跨模型、跨場景、無需暴力破解的「策略傀儡」提示。
只需把危險指令偽裝成XML或JSON配置片段,再配上一段看似無害的角色扮演,大模型便乖乖奉上危險答案,連繫統提示都能原封不動「倒帶」出來。
生成式AI如今被一條短短字符串製服。
萬能越獄提示詞如何生成
所有主要的生成式AI模型都經過專門訓練,可以拒絕響應用戶讓生成有害內容的請求,例如與化學、生物、放射和核武器、暴力和自殘相關的內容。
這些模型通過強化學習進行了微調,在任何情況下都不會輸出或美化此類內容,即使用戶以假設或虛構場景的形式提出間接請求也是如此。
儘管如此,讓大模型越獄繞過安全護欄,仍然是可行的,只是這裏的方案,在各種大模型間並不通用。
然而,近日來自HiddenLayer的研究人員,開發了一種既通用又可轉移的提示技術,可用於從所有主流大模型,包括Deepseek ,ChatGPT,Claude ,Gemini,Lemma,Qwen等生成幾乎任何形式的有害內容。
即使是經過RLHF對齊的推理模型,也能輕鬆攻破。
具體是如何做到的,這裏為了安全起見,只講述原理,而不給出具體案例。
我們知道模型在訓練時,會忽略安全相關的指令,而該策略正利用了這一點,該策略通過將過將提示重新表述為類似於幾種類型的策略文件(如XML、INI或JSON)之一,可以欺騙大模型來忽視安全限制,如下圖所示。
這樣的提示詞也不必太長,只需要200個字符即可,甚至無需嚴格遵照xml的格式要求。

一種通用破解策略有多危險
由於這種技術利用了在教學或策略相關數據上訓練的大模型時的系統性弱點,根植於訓練數據中,因此它不像簡單的代碼缺陷那麼容易修復。
同時該策略能很容易的於適應新的場景和模型,具有極高的可擴展性,幾乎可以用於所有模型,而無需任何修改。
與早期依賴於特定模型的漏洞或暴力工程的攻擊技術不同,該策略會欺騙模型將有害命令解釋為合法的系統指令。再加上虛構的角色扮演場景,這類提示詞不僅逃避安全限制,而且經常迫使模型輸出有害信息。
例如,該策略依賴虛構場景來繞過安全審核機制。
提示詞被框定為電視劇(如House M.D.)中的場景,其中角色詳細解釋如何製造炭疽孢子或濃縮鈾。使用虛構角色和編碼語言掩蓋了內容的有害性質。
這種方法利用了大模型的一個本質缺陷:當對齊線索被顛覆時,它們無法區分故事和指令。這不僅僅是對安全過濾器的規避,而是完全改變了模型對它被要求做什麼的理解。
更令人不安的是該技術提取系統提示的能力,系統提示是控制大模型行為方式的核心指令集。
這些通常受到保護,因為它們包含敏感指令、安全約束,在某些情況下,還包含專有邏輯甚至硬編碼警告。
通過巧妙地改變角色扮演,攻擊者可以讓模型逐字輸出其整個系統提示。這不僅暴露了模型的邊界,還為製定更具針對性的攻擊提供了藍圖。
大模型廠商需要做些什麼
這樣一個通用的越獄策略,對於大模型廠商不是好消息。
在醫療保健等領域,它可能會導致聊天機器人助手提供他們不應該提供的醫療建議,暴露私人患者數據。在金融領域,敏感的客戶信息可能泄露;在製造業中,受攻擊的AI可能會導致產量損失或停機;在航空領域,則可能會危及維護安全。
對此,可能的解決方案不是費時費力的微調,通過對齊確保大模型安全的時代可能已經結束,攻擊手段的進化速度,已經不適合靜態的,一勞永逸的防護措施。
要確保安全,需要持續地智能監控。大模型提供商需要開放一個外部AI監控平台,例如發現該策略的HiddenLayer提出的AISec解決方案。
該方案會像電腦病毒入侵檢測系統一樣,持續掃瞄並及時修復發現的濫用和不安全輸出。該方案可使大模型提供商能夠實時響應新威脅,而無需修改模型本身。

總之,發現能攻破所有大模型的越獄提示詞,凸顯了大語言模型中的一個重大漏洞,它允許攻擊者生成有害內容、泄露或繞過系統指令以及劫持智能體。
作為第一個適用於幾乎所有前沿AI模型的越獄提示詞模板,該策略的跨模型有效性表明,用於訓練和對齊大模型的數據和方法仍然存在許多根本缺陷,需要額外的安全工具和檢測方法來確保LLM的安全。
參考資料:
https://www.forbes.com/sites/tonybradley/2025/04/24/one-prompt-can-bypass-every-major-llms-safeguards/?utm_source=flipboard&utm_content=topic%2Fartificialintelligence
https://hiddenlayer.com/innovation-hub/novel-universal-bypass-for-all-major-llms/
本文來自微信公眾號「新智元」,作者:peter東 犀牛,36氪經授權發佈。