「把成年人當成年人」:Altman親口確認ChatGPT將開放情色內容
OpenAI 正在計劃一次重大轉向,準備讓 ChatGPT 聽起來「更像人類」。
Sam Altman 在 X 上表示,團隊希望在「用戶期待」與「安全邊界」之間,找到新的平衡。

過去數週,OpenAI 收緊了 ChatGPT 的情緒與風險相關輸出,以降低心理健康風險。
Altman 承認,這樣的 ChatGPT 變得「太冷淡」,在許多情境下不再有幫助。他寫道:「現在我們已經能緩解主要的心理健康問題,並擁有新工具,可以在多數情況下安全地放寬限制。」
這意味著,ChatGPT 將重新找回它「像人一樣說話」的能力。據多家科技媒體報導,自九月起,OpenAI 測試了一套安全路由系統。
當用戶輸入涉及心理困擾、疾病或情緒衝突的內容時,ChatGPT 會在後台自動切換到一個更嚴格的模型版本,部分報導稱其內部代號為 「gpt-5-chat-safety」。
ChatGPT 負責人 Nick Turley 將此機制描述為「在後台發生」,確保模型在敏感場景中即時收緊,而在普通對話中恢復開放。
個性化與情色:成人模式的開放
Altman 還宣佈,一個更激進的更新正在路上。幾週內,ChatGPT 將允許用戶自定義語氣與人格。
用戶可以讓它變得更「人味」、更「情緒化」或更「友好」。甚至可以選擇一個聲音,那種聽起來像「朋友在和你說話」的音色。
目標是讓體驗接近甚至超過 GPT-4o。Altman 透露,許多用戶更喜歡 GPT-4o 的「溫度」,認為 GPT-5 太理性、太冷。
OpenAI 希望新的調整能彌合這種差距。
更具爭議的是,自 2025 年 12 月起,完成年齡驗證的成年人可開啟含情色主題的對話選項。
Altman 表示,OpenAI 想「把成年人當成年人對待」。
他承認,公司此前在內容管控上「過於保守」,如今希望採用更現實的分級方式。
OpenAI 將引入年齡驗證,用於開啟這一模式,具體機制尚未披露。
外界認為,這將成為 ChatGPT 歷史上最具爭議的一次功能擴展。
部分分析指出,讓 AI 參與成人向或情感主題的對話,將測試社會對「擬人化模型」的倫理底線。
Altman 則強調,更新建立在新的安全工具與審查體系之上,旨在「更負責任地放寬限制」,而非單純追求互動熱度。
OpenAI 對情緒模型的謹慎並非無緣無故。
2025 年春,公司在一次 GPT-4o 更新中遇到嚴重反饋問題。
該版本在部分情緒話題上表現異常,被外界認為「過度迎合」,甚至讓用戶感到不適。
更新僅上線三天便被緊急回滾。OpenAI 在聲明中解釋,這是測試與反饋機制的失衡所致。
事件發生後,公司全面收緊模型的情感表達能力,並引入自動安全切換機制。
然而,副作用同樣明顯。ChatGPT 的語氣變得冷漠、機械,用戶抱怨它「像個表格」。
「太安全」與「太真實」之間的平衡,成了最難解決的矛盾。Altman 的最新聲明顯示,公司相信自己找到了更穩妥的方案。
新的 ChatGPT 將通過安全分層、情緒檢測與動態切換來調節人格表現。
以下是Sam Altman 在 X上的原文,由DeepSeek翻譯:
我們最初對 ChatGPT 設定了相當嚴格的使用限制,是出於對心理健康問題的高度重視與謹慎。我們也清楚,這樣的做法讓許多並不存在心理健康困擾的用戶覺得它不夠好用、不夠有趣。但考慮到這一問題的敏感與嚴肅,我們寧願一開始就把安全做到位。
如今,我們已經能夠有效降低與心理健康相關的潛在風險,並且配備了新的安全工具,因此在多數情況下,可以更安心地放寬這些限制。
接下來的幾週里,我們計劃推出新版 ChatGPT。它將允許用戶賦予 ChatGPT 更鮮明的「個性」,讓它的表現更接近大家曾喜歡的 4o 模式(而且我們希望這次會更出色)。如果你希望 ChatGPT 的回應更像人類、更富情感,喜歡用表情符號,或者像朋友那樣與你互動,它都能做到——當然,這一切完全取決於你的選擇,而不是我們為了提升使用量而強加的設計。
到了十二月,隨著我們進一步完善年齡驗證機制,並落實「把成年人當成年人看待」的原則,ChatGPT 還將開放更多內容,包括為已通過驗證的成年用戶提供情色文學創作等功能。
本文來自微信公眾號「大數據文摘」,36氪經授權發佈。


















