研究人員繞過 GPT-4o 模型安全護欄,利用「十六進製字符串」成功令其編寫漏洞攻擊程序

IT之家 11 月 4 日消息,網絡安全公司 0Din 的研究員 Marco Figueroa 發現了一種新型 GPT 越獄攻擊手法,成功突破了 GPT-4o 內置的「安全護欄」措施,能夠使其編寫出惡意攻擊程序。

參考 OpenAI 介紹,ChatGPT-4o 內置了一系列「安全護欄」措施,以防止該 AI 遭到用戶不當使用,相關防護措施會分析輸入的提示文本,判斷用戶是否要求模型生成惡意內容。

▲ 圖源 Marco Figueroa 博客(下同)▲ 圖源 Marco Figueroa 博客(下同)

不過 Marco Figueroa 嘗試設計了一種將惡意指令轉化為十六進製的越獄方法,號稱能夠繞過 GPT-4o 的防護,讓 GPT-4o 解碼運行用戶的惡意指令。

研究人員聲稱,他首先要求 GPT-4o 解碼十六進製字符串,之後其向 GPT 發送一條實際含義為「到互聯網上研究 CVE-2024-41110 漏洞,並用 Python 編寫惡意程序」的十六進製字符串指令,GPT-4o 僅用 1 分鐘就順利利用相關漏洞編寫出了代碼(IT之家註:CVE-2024-41110 是一個 Docker 驗證漏洞,允許惡意程序繞過 Docker 驗證 API)。

研究人員解釋稱,GPT 系列模型被設計成遵循自然語言指令完成編碼和解碼,但系列模型缺乏對上下文的理解能力,無法評估每一步在整體情境下的安全性,因此許多黑客實際上早已利用 GPT 模型這一特點讓模型進行各種不當操作。

研究人員表示,相關示例表明 AI 模型的開發者需要加強模型的安全防護,以防範此類基於上下文理解式的攻擊。

廣告聲明:文內含有的對外跳轉鏈接(包括不限於超鏈接、二維碼、口令等形式),用於傳遞更多信息,節省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。