DeepSeek 越強大,我就越容易變蠢?
有沒有發現,自從 AI 成了你的「智力外掛」,大腦好像開始偷偷摸魚了?
好用是真好用,但是一昧地迷信 AI 給出的東西,就有點不太對勁了——小心呐,過於依賴 AI,是會讓大腦變蠢的。
微軟研究院聯手劍橋大學,針對 AI 對批判性思維的影響做了一個深入研究,發現過於相信生成式工具,會減少對自己批判性思維的使用。

對 AI,別太信了
這一次微軟把研究範圍聚焦到了生成式 AI 和知識工作者身上,也就是經常用大模型工具做案頭工作的一群人。
一共 319 名知識工作者,這些參與者每週至少用到一次 AI 工具,包括 ChatGPT、微軟的 Copliot 和 Google 的 Gemini,總用例多達到 936 個。
現在的 GenAI 工具尤其擅長文書類任務,研究人員把這種任務分成了三大類、九小類:

這個分類基本覆蓋了大多數場景,從潤色郵件、總結內容、提取要點、精準查詢……這些就是我用 AI 常做的事啊。
關注 AI 第一新媒體,率先獲取 AI 前沿資訊和洞察
平心而論,用 AI 本來就是為了提高效率,減少花在「髒活兒」上的時間,這無可厚非。比如有一位程序員,會用 Claude 幫忙寫代碼;一位外彙交易員,用 ChatGPT 生成交易策略;還有一位老師,會用 Dall-E 生成學校洗手教程的圖片。

這樣一來,用戶自己需要做的工作,就從曾經的「零幀起手」,轉變成「監督學習」。AI 負責出東西,用戶來挑毛病、提意見,一輪兩輪 N 輪的修改,直到滿意為止。
這樣的過程不是挺有效率的,怎麼會讓大腦退化呢?
這些事務型的任務 AI 完成起來又快又好,也就容易讓人「掉以輕心」。除非是真的出現了特別離譜的結果,不然很多人都會放心把事情交給 AI。

而正是這種對 AI 的信任、對自己所選中的「虛擬工作夥伴」的認可,會讓用戶不願意反思和複盤自己在工具上的使用——也很好理解,誰會輕易質疑自己的經驗呢?
於是研究人員提出了這樣一個問題:在與 AI 合作完成任務的過程中,你會調用自己的批判性思維嗎?
這裏所謂的「批判性」來源於英文的「critical thinking」,是對可用事實、證據、觀察和論據進行分析的過程。
在這個研究里,「批判性」在這裏,並非單純地指給成品挑毛病,而是有更確切的定義:
1. 能夠審視自己的需求和意圖,從而確定需要 AI 參與的地方
2. 能在心中設定明確的目標
3. 通過主觀標準驗證信息、驗收質量
這三點對應了三種批判性思維里的核心構件:意識、動機和能力。當沒有意識、沒有動機、還缺乏能力的時候,依賴 AI 無異於讓自己的認知思維進一步退化。
而這次研究最重要的發現,是那個影響調用批判性思維的決定因素:不是任務類型,也不是模型的強大程度,而是人對 AI 有多「信」。

在強大的模型面前,每一個人都會產生自我懷疑——懂得不如它多,反應不如它快。有了 DeepSeek R1 這樣的天才型選手之後,更是懷疑自己的深度思考能力也不及 AI 了。
出於對 AI 的認可,自然也就把重要的事交出去,不再過問。
怎麼避免退化?從自信開始
依賴工具會讓人變蠢,類似的說法很常見了,不是一天兩天。最著名的研究,要數針對出租車司機習慣用導航之後,大腦內海馬體的變化。

上個世紀 60 年代時,人們就發現海馬與空間記憶密切相關。英國神經學家對倫敦的出租車司機進行了研究,發現接受培訓期間,新手司機熟悉了倫敦的空間,他們的海馬體明顯變大。相比之下退休的司機,海馬體則是在變小。
後來,又有學者直接找普通人做實驗,發現在使用 GPS 時行走時,海馬體不會處於活躍狀態。只有自己思考路線該怎麼走時,海馬體才會被激活。

必須指出的是,出租車司機因為工作經驗,海馬體本身就異於常人,即便退化也只是回到普通人的均值,並不是惡性的萎縮、損傷。
這兩個研究更多是在指出了鍛鍊大腦的必要性。這是一個惡性循環:越相信工具,就會越少調用自己的判斷和認知。隨著認知的退化,逐漸不具備找到錯漏的能力了,只能越來越相信工具。

不過,這並不意味著要從此跟 AI 工具一刀兩斷,沒必要。在工具越來越普及的現在,也不可能完全對 AI 避之不及。
回到剛才的「意識」「動機」和「能力」方面,只要建立不能盡信 AI 的意識,不過分放手。「3R 原則」是一個值得嘗試的日常小練習:
Review 強製複查:對 AI 返回的答案、代碼、方案,進行至少兩次修改,拒絕複製黏貼。
Reverse 逆向訓練:每週完成一次「0 生成純天然」的基礎任務。比如對長文章的提煉摘要、讀書總結、播客總結,哪怕 AI 完成得更好,也堅持自己做一遍。可以把自己成果和 AI 的版本進行對照,這樣可以觀察自己的思路是否需要增補,以及 AI 容易在哪些地方出現幻覺。
Reconstruct 重構輸出:將 AI 生成的內容重新解構。用工具生成思維導圖是一個常見的用法,但是思維導圖是被高度提煉之後的內容,許多信息被「摺疊」了。正式這些被摺疊的部分,影響了認知能力的鍛鍊。Reconstruct 的要點在於反過來拆解 AI 的長篇大論,建立獨一無二的的思維導圖。
「變蠢」可能是一個略帶簡單粗暴的說法,但這背後隱藏著一個樸素的道理:用進退廢。
批判性思維的減少,和對人工智能的信任有所相關,那麼提高批判性思維,不如就從更相信自己開始。
我們正在招募夥伴
📮 簡曆投遞郵箱
hr@ifanr.com
✉️ 郵件標題「姓名+崗位名稱」(請隨簡曆附上項目/作品或相關鏈接)
