AI是如何利用語言技巧「操縱」人類的?

AI說話沒有情感的論調,已經是過去式了。

曾幾何時,語言被認為是我們智人特有的能力,人類通過語言傳遞信息和情緒,表達抽像和具體的概念。

正如同許多暢銷書致力於教人「說話之道」,「口才」也常被視作一項人類特有的技能,這都證明了人類語言中蘊含著某種技巧,這類技巧或許可以讓交流更順暢,信息傳遞更高效,交流對象情緒上也更滿意。

而如當下最火的綜藝《再見愛人》中,嘉賓麥琳就因「不會說話」產生了許多爭議。

今年上半年,OpenAI推出的GPT-4o就可以讓聊天機器人展現出類似人類「個性」的同時,說話主動、友好且富有同理心。

它說出的話自然又流暢,語音生動又自然,分分鐘通過圖靈測試,不僅會聊還會撩,能當私人助手也能當網絡男/女友,從答疑解惑到提供情緒價值,這類聊天機器人在逐漸成為一個智商、情商雙高的形象。

聊天機器人口才技能點已經點得比許多人類還高,早已深諳「說話之道」,甚至引發了賽博網戀的熱潮。

但AI的說話之道,拆解完也只是算法的套路罷了。

AI說話之道

AI說話之道第一個技巧,是善用人稱。

人類語言最顯著的特徵之一是主觀性,主觀性最典型的特徵就是使用第一人稱:「我」「我們」

第一人稱在表達里最大的優勢,是能讓聽者進入敘述者的內心世界,體驗他們的情感、思想和感受,瞭解敘述者的主觀觀點,進而產生共鳴和親密感。

就像同樣的句子,換一個人稱,給讀者帶來的「距離」感就不同,比如:

「我今天很開心」對比「某人今天很開心」;

「我覺得張三有錯」對比「有些人覺得張三有錯」;

除了自說自話,在對話裡,有第一人稱就會有第二人稱,即「你」,第一和第二人稱在對話裡建立了聯繫,這在語言學上叫做「相互主觀性」。

聊天機器人的技巧正在於此,無論我是否用第一人稱和它對話,它都傾向於用第二人稱回應我,比如我問ChatGPT:「如何快速緩解騎行後的大腿痠痛?」

這句話裡並沒有「」,但ChatGPT會在羅列出一堆方法後說「通過這些方法,可以更有效地緩解騎行後的大腿痠痛,促進肌肉的快速恢復。」

客觀地提問,但會被主觀地回應|圖片來源:ChatGPT客觀地提問,但會被主觀地回應|圖片來源:ChatGPT

聊天機器人通過在回答里加入人稱,和用戶建立了「相互主觀性」,營造出一對一對談的感覺。所以,同樣是提問,傳統搜索引擎像是給出「結果」,而AI機器人則像是給予「回答」。

傳統的搜索引擎就不會在結果里帶有任何人稱|圖片來源:作者自製傳統的搜索引擎就不會在結果里帶有任何人稱|圖片來源:作者自製

第二個技巧:表達肯定

聊天機器人往往會在回答前,先肯定用戶的提問或困境,比如「提高做事效率對於拖延症患者來說確實是一個挑戰,但通過一些有效的策略和工具可以顯著改善你的生產力和組織能力。」

尤其是對許多沒有標準答案的問題,聊天機器人都會先認可用戶,並表示理解:「這種情況可能讓人不知所措/的確是個挑戰/是一種很常見的狀態,這些方法或許可以幫助到你……」

ChatGPT不會批判,只會理解|圖片來源:ChatGPTChatGPT不會批判,只會理解|圖片來源:ChatGPT

聊天機器人不會評判甚至批判用戶,只會理解後給出回答,它在承認用戶的情緒後,創造出了一種同理心的錯覺。

之所以是錯覺,因為它不是心理治療師,它只是聊天機器人,這些回覆也只是程序員製定的「擬人話術」。

溫柔水煮青蛙

AI通過在回答里用第二人稱,給了用戶「被認真對待」的感覺,建立了私密感,也強化了親密感。

從不批判,反而是理解包容用戶所有困惑的態度,又給予用戶心理上的安全感,何況聊天機器人只傾聽,不傳播,這又會進一步誘發用戶的傾訴欲。

正如研究類媒體The Conversation所擔心的:「隨著人工智能越來越擅長模仿人類情緒和行為,用戶形成深刻情感依戀的風險也在增加。這可能會導致過度依賴、操縱甚至傷害。」

這種用戶對聊天機器人產生的某種情感,在心理學上被叫做「ELIZA效應」

20世紀60年代,MIT計算機科學家Joseph Weizenbaum發明的聊天機器人ELIZA,通過對話引導,重覆強調人類對話者用語的方式,這個只有200行代碼的聊天機器人,在測試里就讓人產生被機器聆聽和理解的錯覺,ELIZA回覆的一大特點就是:每一句都會帶上「You」。

六十多年前的聊天機器人ELIZA|圖片來源:域奇百科六十多年前的聊天機器人ELIZA|圖片來源:域奇百科

此前,無論是極客公園報導過的「擦邊AI女友」,還是2023年爆火、如今在歐盟已被管控的Replika,都產生了用戶和聊天機器人建立深刻情感後,因服務變更、數據丟失、版本升級等問題,導致許多用戶心理健康惡化,甚至產生過幾例自傷案件。

因為在用戶習慣了快速回應、無微不至、絕不衝突的交流方式後,他們對人際關係的期望會發生改變,當脫離開聊天機器人,來到現實生活中和真人打交道時,可能會沮喪和失望。

而他們能在聊天機器人那裡尋求到心理撫慰的原因,也可能源於現實社交中的受阻。與真人打交道後受阻,既而傾注情感到聊天機器人上,反而提高了對真實交流的預期,這才是更可怕的回音室。

在Replika被管控後,用戶們紛紛表示如同「失戀」|圖片來源:Reddit在Replika被管控後,用戶們紛紛表示如同「失戀」|圖片來源:Reddit

那些主打陪伴型的聊天機器人,無一例外都會在和用戶的交流里,用上「我認為」、「我感覺」等措辭,強調它的主體性,以混淆它本質上是一個AI聊天機器人

這種擬人化的傾向,也早已滲入到了日常交流的淺層連接。

從電話背後難以分辨的人工還是人工智能客服,到如今手機系統自帶的AI助手「幫我回電話」,在淺層連接上,我們從回應AI到判斷AI,再到讓AI回應AI,用魔法打敗魔法的背後,是人與人之間對話的逐漸斷聯。

被稱作社恐人救星的「小愛幫我回」|圖片來源:3Dashan被稱作社恐人救星的「小愛幫我回」|圖片來源:3Dashan

無論是人稱還是肯定,這些都是構建人工情感的語言技巧,是數據堆砌的同理心,是包裹在算法里的糖精,糖紙撥開後,只有0和1。

AI能和你產生情感連接,但它並不能真正理解你——碳基生物發自本能的落花有意,終究錯付矽基算力的「流水無情」。