OpenAI 的 GPT – 4.1 無安全報告,AI 安全透明度再遭質疑

IT之家 4 月 16 日消息,本週一,OpenAI 推出了新的 AI 模型 GPT-4.1 系列。該公司表示,該模型在某些測試中,尤其是編程基準測試方面,表現優於其現有的一些模型。然而,與 OpenAI 以往的模型發佈不同,GPT-4.1 並未附帶通常伴隨模型發佈而公佈的安全報告(即系統卡)。

截至週二上午,OpenAI 仍未發佈 GPT-4.1 的安全報告,且似乎並無此計劃。OpenAI 發言人 Shaokyi Amdo 在向 TechCrunch 發表的聲明中表示:「GPT-4.1 並非前沿模型,因此不會為其發佈單獨的系統卡。」

通常情況下,人工智能實驗室會發佈安全報告,展示其內部以及與第三方合作夥伴開展的測試類型,以評估特定模型的安全性。這些報告有時會揭示一些不那麼令人滿意的信息,例如某個模型可能會欺騙人類或具有危險的說服力。總體而言,人工智能界普遍認為這些報告是人工智能實驗室支持獨立研究和紅隊測試的誠意之舉。

然而,在過去的幾個月裡,一些領先的人工智能實驗室似乎降低了其報告標準,引發了安全研究人員的強烈反對。例如,Google在發佈安全報告方面行動遲緩,而其他一些實驗室則發佈了缺乏以往細節的報告。

OpenAI 近期的表現也並不出色。去年 12 月,該公司因發佈了一份包含與實際部署生產版本不同的模型基準結果的安全報告而受到批評。上個月,OpenAI 在發佈一款名為「深度研究」的模型後數週,才發佈該模型的系統卡。

前 OpenAI 安全研究員 Steven Adler 指出,安全報告並非由任何法律或法規強製要求,而是自願發佈的。然而,OpenAI 曾多次向各國政府承諾,會增加其模型的透明度。2023 年,在英國人工智能安全峰會前夕,OpenAI 在一篇博客文章中稱系統卡是其問責製方法的「關鍵部分」。而在 2025 年巴黎人工智能行動峰會之前,OpenAI 表示系統卡可以為模型的風險提供有價值的見解。

Adler 表示:「系統卡是人工智能行業用於透明度和描述安全測試內容的主要工具。如今的透明度規範和承諾最終是自願的,因此是否以及何時為某個模型發佈系統卡,取決於每家人工智能公司自己的決定。」

IT之家注意到,此次 GPT-4.1 未發佈系統卡的背景是,OpenAI 的現員工和前員工對其安全實踐提出了擔憂。上週,Adler 與其他 11 名前 OpenAI 員工在埃隆・馬斯克起訴 OpenAI 的案件中提交了一份擬議的法庭之友簡報,認為營利性質的 OpenAI 可能會削減安全工作的投入。《金融時報》最近報導稱,由於競爭壓力,OpenAI 已經減少了分配給安全測試人員的時間和資源。

儘管 GPT-4.1 並非 OpenAI 旗下性能最高的 AI 模型,但在效率和延遲方面取得了顯著進步。Secure AI Project 的聯合創始人兼政策分析師 Thomas Woodside 稱,性能的提升使得安全報告變得更加重要。他認為,模型越複雜,其可能帶來的風險就越高。

目前,許多人工智能實驗室一直在抵製將安全報告要求納入法律的努力。例如,OpenAI 曾反對加州的 SB 1047 法案,該法案要求許多人工智能開發商對其公開發佈的模型進行審計並發佈安全評估。

廣告聲明:文內含有的對外跳轉鏈接(包括不限於超鏈接、二維碼、口令等形式),用於傳遞更多信息,節省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。