DeepSeek R1之後,提示詞技巧還有用嗎?
我在一週前的文章[1]里說對 DeepSeek-R1 只需要說大白話,但在三天前的文章[2]里又用了看起來還挺複雜的結構化提示詞。有夥伴問我到底咋回事。這就來解釋下嘍。
一、你依舊需要告訴 AI 足夠多的背景信息
我一直都很推崇大白話式的提示詞。
最近多次看到群友發出對比:「圖一是使用大白話的結果,圖二是用上 XX 提示詞技巧的結果,後者效果好得多!提示詞技巧還是需要的!」
但效果差真的是大白話的鍋嗎?還是因為你的大白話提供的信息太少?
大模型是人類智慧的加權平均,不斷用概率來預測下一個 token。許願式的「給我寫段 XXX」,得到的只能是符合人類偏好平均值的(因而也是最平庸的)結果。
我們來看一個特別簡單的例子。
「蛇年拜年短信」。當你聽到這個詞時腦袋里最先出現的是什麼詞?靈蛇、金鱗、喜、樂、福、財……對不對?
巧了,大模型也是這麼想的!
因此,許願式的一句簡單指令,大概率會得到這樣的結果:

但若用大白話把你是誰、要寫給誰、寫什麼說清楚,就完全不同了:

所以,不是大白話不行,而是信息量太少的大白話不行。你依舊需要告訴 AI 足夠多的背景信息,讓大模型知道你的偏好。
二、提示詞框架依舊有效,是因為它能提醒你提供必要信息
兩年前大家研究提示詞工程,提出了五花八門的框架。照框架寫出來的提示詞,似乎比大白話「高級」了一些。
其實,這些框架大同小異、萬變不離其宗,只是你思考的腳手架而已。對照著框架,你或許會想起還遺漏了哪些背景信息,應該要告訴大模型。
面對 R1,你依舊需要對大模型提供必要的背景信息,因此這些輔助梳理信息的框架依舊有用。但你完全可以有自己的判斷——遺漏的條目就補上,不適用的就刪了,不需要拘泥於框架。(其實 R1 之前也是這樣)

三、用祖哈利視窗分析你到底該告訴 AI 多少信息
到底哪些信息需要告訴 AI、哪些不需要呢?李繼剛有個特別棒的分享[3],介紹用祖哈利視窗來分析不同情況下、分別要如何寫提示詞。如果對下圖有疑惑,推薦閱讀原文。

四、結構化提示詞有助於 AI 「記住」和遵循指令
在 ChatGPT 時代,很多人都喜歡結構化提示詞,像 coze 等平台還會自動把你的大白話提示詞優化成結構化形式。# 或 ## 的符號一加,看上去就特專業。

有必要這麼做嗎?其實得看你的提示詞有多複雜——複雜內容用結構化方式梳理,效果確實會提升。原因我在拆解 Mr. Randeer 時有解釋。[4]
人類用思維導圖可以很好地幫助記憶,因為它將線性的內容分門別類組織成樹狀結構,內容被分塊且呈現關聯,記憶負擔就小了。
大模型也有類似的現象。用特殊符號把大段提示詞分塊(#,## 之類的符號是 Markdown 語法中的一級標題、二級標題等),就像是把提示詞畫成一張思維導圖,AI 會更容易「記住」和遵循這些指令。
除了 Markdown 格式,用 <類xml 標籤> 或者 @@@@以下是公司簡介@@@@ 這樣隨性的分割線,只要能把內容清晰分塊,效果也都不賴。
這個技巧,對 R1 模型依舊有效。但如果提示詞不複雜,其實不用那麼費勁。
五、不要在提示詞里指定思考步驟,除非你只希望 AI 嚴格執行
這一條是 R1 和以前模型最大的區別。
以前在提示詞里用 CoT(Chain of Thoughts,思維鏈)的方式把中間過程都寫出來,能有效提升大模型表現。但對 R1 這麼做很可能起反作用。原因很簡單:R1 的深度思考往往能比你想得更多。
例如前面的拜年短信,基本上我想到的、沒想到的,它都幫我想到了。也就是說,「如何做」的信息,落在了祖哈利視窗「AI 知道」這半區,那我們只需要把目的說清楚即可。

當然,如果你有特定的方法論,就是希望 AI 嚴格按你說的做,那用 CoT 也可以。但我強烈建議你在添加 CoT 之前,和 R1 自由對話幾輪,參考它的思考過程,來改進你的步驟。
畢竟,一個不太能幹的領導,用太過微管理的方式來指揮員工幹活,是非常扼殺聰明員工的靈氣的。
六、示例是另一種背景信息,可以按需提供
以前的提示詞技巧中,還經常會講到要「給示例」。這是 In-Context-Learning, one-shot,few-shots,都能明顯提升大模型的表現。
示例是一種隱性的需求說明書——當你描述的要求太抽像/不夠準確時,添加一兩個示例,可以讓大模型更懂你需要的是什麼(就讓人類在領任務的時候說「你能不能舉個例子」)。這技巧對 R1 也依舊有效。
為了避免 overfitting,你的例子最好別太單一。否則大模型會刻板以為你要的就這一種,依葫蘆畫瓢出來的結果也單調。
和上一條類似,你可以先和 R1 自由對話幾輪,從它生成的內容里挑好的例子放入提示詞。
比較特別的是:既然目的是提供更多偏好信息,你還可以用非常簡單的大白話來給例子,R1 有能力舉一反三、捕捉關鍵點、並加以擴充。
例如下圖提示詞里高亮的其實也是示例:

R1 會捕捉住「用圖像生成能力增加趣味」的關鍵點,並主動生成完整內容。

七、提示詞要區分自用還是他用、一次性還是反復用
如果是自己的非重覆任務,你不需要使用上兩條提示詞技巧:只要在對話過程中提出新要求就好,在追問中補充信息,比一開始就思考周全,要容易得多。
只有需要反復使用的任務,才值得你仔細打磨帶有步驟或示例的、有框架和結構、能有穩定表現的高質量提示詞。
其實這樣的提示詞也可以用一個 meta-bot 自動生成並優化,GPTs 時代已經有很多了,R1 會有一些不同,以後另寫文章介紹。
八、R1 的指令遵循差,可用分工協作來改進
說起穩定表現,相比以前的指令型大模型,R1 「有腦子」、「會思考」了,就像更聰明的員工那樣,可能會不太聽話。
它對指令的遵循比以前的模型要更難些。我們可以通過看它的思考過程來理解原因,進而調整提示詞、強調重要內容。
但其實我們也不需要死磕,讓模型分工協作可能是更好的辦法。先讓 R1 (慢思考的系統 2)自由生成內容,再用其它指令遵循較好的小模型(快思考的系統 1)對它的輸出進行一番整理就好。
在一條提示詞里塞了很多任務,也會讓大模型更不聽話。一口氣交代員工做十件事、肯定比一件一件讓它做,要更難呀。把任務拆分了、用工作流框架串起來,會是更好的做法。
九、有用的不是提示詞技巧,而是你的思考和表達
我在舊文《一個一串一串串——比提問更重要的是追問》[5]里寫過,提示詞技巧保證的是 AI 回覆質量的下限,但提升上限,要靠提示詞中的具體內容。
R1 對框架、結構、CoT、ICL 等的要求更少、因此保障下限更容易,對發揮大模型能力影響更大的,就是我們自身的思考和表達了。
使用 AI 真的很簡單,再小白,也不需要去上提示詞課。但可能每個人,都需要補語文課、邏輯課、批判性思維課。
參考文章:
[1]當你驚呼 DeepSeek 成精時,請警惕前方的陷阱
[2]DeepSeek:好奇寶寶的免費一對一科學老師
[3]李繼剛 | 提示詞的道與術
[4]深度拆解天花板級複雜的提示詞 ——什麼可照搬什麼不要學
[5]一個一串一串串——比提問更重要的是追問
本文來自微信公眾號:南瓜博士,作者:ElfeXu