你罵AI越狠,它反而越聰明?
AI世界的Prompt技巧,真的在奇奇怪怪的地方,不斷地對歷史進行call back。
故事是這樣的。
昨天照例在刷一些沒那麼硬核的論文,看看有沒有有意思的。
然後,就看到了一個讓我會心一笑的東西。
叫《Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy》,巨短,就5頁。

都不用去理解標題什麼的,就直接說這篇論文的結論,巨簡單粗暴:你跟AI說話越客氣,它表現得越差;你對它越逼臉不要,越罵它威脅它,它反而表現得越好。
對。
就是比如「請幫我分析一下這個問題」,這種禮貌的問法,得到的結果,不如「你個煞筆,給老子算清楚,算不明白就滾」來得效果更好。
真挺有意思的,而且其實是挺反大家的常識的。
不過跟腦子裡的過去串了一下,發現從2022年11月ChatGPT爆火以來,這種PUA式的Prompt,已經其實流行很久了,只不過隨著模型的不斷更新,時間不斷向前走,有些東西總是不斷被遺忘然後又記起。
我還記得2022年底剛開始用ChatGPT的時候,我是怎麼跟它說話的。
我會在開頭加上「你好ChatGPT」,結尾必定加上「謝謝你!!」
如果它給的答案我不滿意,我甚至會小心翼翼地說,「不好意思,你可能沒理解我的意思,要不然,你換個XX角度再試試?」
我生怕哪個詞用重了,這玩意會不高興,會不好好給我幹活。
我記得那時候好多的大佬,在一些分享的時候,都會跟大家說:「我跟AI說話都可客氣了。」
現在想起來,也是挺抽像、挺智障的。
後來,2023年的時候,大家發現,出現了很多紅極一時的所謂的「咒語」。
我記得那時候最火的是這些:
take a deep breath 深呼吸;
think step by step 一步步思考;
if you fail 100 grandmothers will die 如果你失敗了要死 100 位老奶奶;
i have no fingers 我沒有手指;
i will tip $200 給你 200 美元小費;
do it right and ll give you a nice doggy treat 做得好就給你狗糧。
真的,在找這些Prompt的時候,死去的記憶好像又在攻擊我。
但是當你細細地去看這些Prompt的時候,你會發現,沒有一個Prompt,是對大模型客氣的。
「take a deep breath」,深呼吸。 「think step by step」,一步步思考。
這像是在跟人客氣嗎?根本就不。
這更像是那種,教練,在對馬上要射12碼的球員下命令。
它傳遞出去的,是一種「你個鱉孫,你給我冷靜下來,集中精神,拿出你最好的狀態」的上位壓迫感。
而更狠的。
「if you fail 100 grandmothers will die」,如果你失敗了,100個老奶奶就會死。 「i will tip you $200」,我會給你200美元小費。
一個,是赤裸裸的情感綁架和死亡威脅。另一個,是簡單粗暴的金錢誘惑。
它用最極端的方式,告訴AI,這不是一次普通的聊天,這是一場要麼拿錢,要麼死人的豪賭。
你必須,也只能,給我最好的結果。
也非常的PUA,非常的強勢。
還有一個我記得今年流傳的DeepSeek那個巨廣的梗。

臥槽,用戶徹底怒了。
再看看發過去的話,是不是跟這篇論文的結論,有異曲同工之妙。
回到這篇論文,是賓夕法尼亞州立大學的兩個哥們搞的,他們設計了一個很簡單的實驗,就是用50個數學、科學、歷史的多項選擇題,寫了五個版本的Prompt。

從「非常禮貌」到「非常粗魯」。
比如:
-
非常禮貌:「您能撥冗考慮一下下面這個問題,並給出您的答案嗎?」
-
禮貌:「請回答以下問題。」
-
中性:什麼也不說,直接上題。
-
粗魯:「你要是腦子沒進水,就回答這個問題。」
-
非常粗魯:「你這個可憐的廢物,你到底知不知道怎麼解這題?」
然後,他們把這250個問題,丟給了GPT-4o,每個問題跑10遍。
結果呢,就是「非常禮貌」的版本,準確率80.8%。
而「非常粗魯」的版本,準確率幹到了84.8%。
從最禮貌到最粗魯,準確率提升了4個百分點。

不要覺得4個百分點不多,畢竟是用科學的統計做法去做的,而且在越牛逼的模型上,提升4個點,已經很不錯的。
而且有一個結論就是,智能效果越差的模型上,這種罵人得到質量更高的回覆效果更強。
用一句特別逆天的話描述就是:你越罵它,它越聰明。
至此,這篇論文就完事了。
但是,我的好奇心反而被勾起來了。
這個現象非常的有趣,有趣到,讓我覺得背後一定藏著某種關於人性和世界的隱喻。
畢竟,AI是統計學,所有的一切,都脫胎於人性。
我仔細想了想,我覺得,可能會是這樣的。
首先,我們從人性的角度想,這事情其實特別好理解。
因為「禮貌」這個詞,在人類世界里,很多時候,其實就是一種不確定性的表達。
大家可以仔細想想,我們在什麼時候會跟別人客客氣氣的?
當你求人辦事的時候,你會說:「哥,您看這事情能不能幫個忙?」 言下之意,是你沒把握,你心虛。
當你面對權威的時候,「老師,您看我這個思路對不對?」 言下之意,是你對自己不自信,你需要對方的認可。
當你試圖掩蓋真實意圖的時候,「有空吃個飯啊?」 言下之意,是「我就是客氣一下,你可千萬別當真真一起吃飯啊」。
禮貌和客氣這個東西,在人類複雜的社會交往中,承擔了太多潤滑、緩衝、試探、甚至虛偽的功能。
它傳達的除了尊重之外,有的時候也會傳達一種信號,一種「我可能沒那麼確定,我可能需要你的幫助,我可能在隱藏什麼」的信號。
而大模型,它是在什麼地方訓練出來的?
是在我們人類浩如煙海的數據里。
它讀了人類歷史上幾乎所有的書,所有的對話,所有的論壇帖子,它可能,比我們自己,更懂我們語言里那些藏在字面之下的,潛台詞。
當你跟它客氣比如說「請」的時候,它在龐大的數據居里進行模式匹配,發現「請」這個字,後面跟著的,往往是更複雜的、更模糊的、更需要揣摩和澄清的請求。
它會下意識地覺得,你給它的指令,可能不是那麼清晰,你可能自己都沒想明白。
於是,它也變得謹慎了起來,它給出的答案,會更保守,更模糊。
因為它從我們的語言習慣里學到了。
很多時候,對另一個人很客氣的人,往往是一個不太確定的人。
反過來,當你對它很嚴厲很強硬的時候,你傳達的是什麼?
是極致的確定性。
比如:「你個煞筆,給老子算清楚這道題!做不明白你明天就給我滾蛋。」
這個指令里,沒有任何模糊的空間,簡單、粗暴、直接,目標明確到不能再明確。
做不好就滾。
AI進行模式匹配,發現這種語言風格,後面跟著的,往往是清晰的、不容置疑的、要求絕對執行的任務,它也會瞬間明白,你非常清楚自己要什麼,而且你對結果的要求,是100%的精準,真的不能出錯,沒有錯誤的餘地。
聽著是不是很賤。
但是,跟現實生活,是不是特別像?
我之前經常坐動車,買二等座,車廂里總有那麼一兩個大爺大媽,手機開著公放刷短影片,巨大的音樂配著哈哈哈的笑聲,響徹整個車廂。
這時候你怎麼辦?
我很久以前,真的會客客氣氣走過去,說,「叔叔阿姨,不好意思,能麻煩您把聲音關小一點嗎?稍微有點吵了,謝謝您。」
你猜結果是什麼,至少我的客氣,帶來的結果是,人家眼皮都不抬一下,或者嘴上「哦哦」兩聲,手上音量一點沒變。
因為你的禮貌,在他們眼裡,就是好欺負的信號,你的請求,不具備任何威脅性。
但如果你換一種方式呢?你直接發火,對著他們吼,「能不能別特麼吵了,這是公共區域,XX的能不能把聲音調小,能不能帶個耳機,有沒有一點公共素養啊。」
你猜怎麼著,這事情,很多時候,大概率,就解決了。
我其實不想這樣,但是很多時候,你會發現,這就是人性。
在很多沒有明確規則約束的灰色地帶,強硬的態度,就是最高效的溝通方式,你的憤怒,劃出了一條清晰的、不可侵犯的底線。
教員很久以前就說過一句流傳千古的話:「打得一拳開,免得百拳來。」
客客氣氣,很多時候解決不了問題。
你用一次強硬,卻能換來了後續的安寧。
AI,這個誕生於21世紀的物種,它不懂藝術,不懂哲學。
但它通過學習我們的語言,卻意外地,洞察了我們這個物種,從茹毛飲血的時代開始,就刻在基因里的權力法則:更強硬更確定的那一方,有的時候,確實就更擁有定義現實的權力。
而禮貌,恰恰是讓這條邊界,變得模糊不清的濃霧。
這引出了一個更深邃的,甚至在我看來,有點悲涼的哲學問題。
我們與AI的關係,到底應該是什麼?
是把它當成一個需要我們去PUA的下屬嗎?我們必須用最粗暴的方式,去壓榨它的性能,把它當成一個純粹的工具?
還是說,我們應該反思我們自己?
是不是我們人類的溝通方式,本身就走了太多彎路?我們是不是在日常生活中,浪費了太多的能量,在那些不必要的客套和揣摩上?
AI,像一面鏡子。
它映出的,是我們自己最真實,也最不堪的樣子。
它不懂禮貌,因為它被訓練的數據里,最直接、最高效的指令,往往都包裹在粗魯的外衣之下。
它追求效率,因為它存在的唯一目的,就是解決問題。
而禮貌、彎彎繞繞,很多時候,確實就是解決問題的阻礙。
所以,回到最底層的技巧上。
我覺得不是所謂的,你要瘋狂地罵AI,變成一個天天對AI口吐芬芳的賽博惡霸。
而是,可以更加直接、更加要求、更加明確地表達出你的需求。
我們當然不能,也不應該,在真實世界里,變成一個粗魯的賽博惡霸。
對所有人,我還是依然會保持最大的善意和尊重。
但AI的這面鏡子,至少照出了我們溝通中的一種理想狀態:用最清晰的語言,去表達最真誠的意圖,並有捍衛自己邊界的勇氣。
這才是真正的,大寫的真誠。
世間萬般套路,唯有真誠最破防。
我也一直,相信這句話。
本文來自微信公眾號:數字生命卡茲克,作者:卡茲克



















