AI 前景光明卻難落地,5 大心理障礙咋破?
AI的成功不僅取決於其與日俱增的能力,還取決於人們使用這些能力的意願。一些人抗拒AI使用的驅動因素是:認為AI太不透明、沒有感情、過於僵化和獨立,相比而言,與人類互動更可取。瞭解這些驅動因素至關重要,有助於設計一些干預措施,以提高組織內部與消費者對AI的採用率。

AI創造了一個驚人的悖論:在2023年蓋 端拿的一項調查中,79%的組織戰略者表示,使用AI、自動化以及數據分析技術,對他們未來兩年的成功至關重要,但其中只有20%的人表示他們正在日常活動中使用AI。
AI的成功不僅取決於其與日俱增的能力,還取決於人們使用這些能力的意願。但正如蓋 端拿調查結果所顯示的,AI尚未得到用戶青睞。
不幸的是,大多數人對AI如何塑造未來同樣持悲觀態度。福布斯顧問(Forbes Advisor)平台的研究顯示,77%的美國人擔心,AI應用會在未來12個月內導致工作機會的流失。80%的人認為,AI增加了他們的私人數據被犯罪分子惡意使用的可能性。還有更悲觀的看法:YouGov進行的一項民意調查發現,近一半的美國人認為AI有一天會攻擊人類。在對AI如此不信任的情況下,要讓員工們心甘情願地、熱切地、全面地使用AI,是一項艱巨的任務。
基於十多年來我對技術應用的研究,包括對約2500名用戶深入的定性訪談和實驗,我找到了人們抗拒AI使用的驅動因素:人類對AI的基本認知是,AI太不透明、沒有感情、過於僵化和獨立,相比而言,與人類互動更可取。瞭解這些驅動因素至關重要,有助於設計一些干預措施,以提高組織內部與消費者對AI的採用率。在本文中,我將詳細探討這些驅動因素,並解釋管理者可以如何應對。
人們認為AI太不透明
對用戶來說,許多AI工具所依賴的機器學習算法都是難以捉摸的「黑匣子」。這種密不可見的特性挫傷了人們對知識和理解的基本渴望,尤其是當它們給出不確定或出乎意料的結果的時候。研究發現,如果不透明的AI比人類、或簡單透明的AI表現更好時,人們會願意使用它,但如果它的表現與後者大致相當,人們就會止步不前。
人們往往以為人類的決策不像算法那麼「黑匣子」,但這種想法其實沒有根據。心理學家已經證明,人們幾乎無法洞察他人在想什麼,因而,我們會使用啟發法來理解人類行為。例如,一項研究中,參與者被要求對AI或人類醫生在查看皮膚掃瞄圖像後進行癌症診斷的過程做出描述,他們這才意識到,自己對人類診斷過程的瞭解並不像他們自以為的那樣深刻。這一認知讓他們不再對使用醫療AI抱有偏見。
對AI工具如何工作做出解釋,可以提高它們的接受度,但並非所有的解釋都會有效。研究人員發現,相較於簡單的解釋AI做了什麼(例如,它啟動了汽車的刹車系統並讓汽車停了下來),人們更願意知道AI工具為什麼會做某事(例如,他們更願意知道自動駕駛汽車刹車是因為前方有障礙物)。
解釋的方式至關重要。那些使用「比較推理」(comparative reasoning)的解釋,也就是概述為什麼不選擇某些替代方案的解釋,比起不使用比較推理的解釋更能提升用戶的信任度。例如,一項研究發現,對AI系統為何將某一腫瘤歸類為惡性而非良性做出詳細描述的解釋,比起簡單地說「該腫瘤與其他惡性腫瘤相似」這樣的解釋更可信(即使兩種解釋可能都是對的)。從根本上說,最令人信服的解釋是那些既能闡明所做決定背後的原因,又能闡明為什麼會放棄其他選擇的解釋。
因為表現最佳的AI模型通常比其他模型更複雜、也更難解釋,因此,管理者可能需要首先在組織流程中引入相對簡單的模型,尤其在員工認同極為重要的情況下。
讓解釋的複雜度與任務的複雜度之間互相匹配也很重要。研究表明,如果對算法的解釋表明該算法對於某一任務來說似乎過於簡單,就像AI在診斷癌症時,如果只是將掃瞄結果與一張腫瘤圖片進行了比較,那麼用戶很可能不會聽從AI的指引。但是,如果對算法的解釋表明該算法很複雜,比如說AI將掃瞄結果與成千上萬張惡性與良性腫瘤的圖片進行了比較,還參考了醫學研究成果來支持自己的評估,那麼就不會降低用戶對AI的依從性。這意味著,在撰寫解釋之前,你需要瞭解用戶對相應任務的看法。你也應該避免造成你的AI對於該任務過於簡單的印象;否則,可能還不如不提供任何解釋。
人們認為AI沒有情感
雖然消費者傾向於相信AI工具可以具備人類的某些能力,但他們並不認為機器能夠體驗情感,因此對AI可否完成那些似乎需要情感能力的主觀性任務持懷疑態度。對於那些已經能夠以人類相同技能水平完成某些主觀性任務的AI系統,這種懷疑態度阻礙了人們對它的接受程度。例如,相比人類做出的財務建議,人們對AI提供的財務建議持有同樣的開放態度,因為這項任務被視為是客觀的。然而,當涉及到諸如約會建議這樣的被視為高度主觀性的事務時,人們明顯更傾向於人類的意見。
企業可以通過以客觀用語來表述任務,也就是將重點放在任務可量化且可度量的方面,去解決這一障礙。例如,對於AI生成的約會建議,你可以強調「依據性格評估生成的可量化結果而指導匹配過程」的好處。在線約會服務商OkCupid將其算法與個性評估和海量的用戶數據分析相結合;它同時還著重說明其算法是如何針對潛在的匹配對象做出篩選和排序,以找到與用戶偏好完美吻合的目標。
企業還可以通過將AI工具擬人化,例如賦予其性別、人類的名字和聲音,來提升它們的採用度。在一項使用自動駕駛汽車仿真的研究中,當汽車的AI系統具有人類聲音和人類頭像等特徵時,參與者表現出更加強烈的信任和舒適感。另一個例子是亞馬遜的Alexa,它具有女性的性別以及包括名字和聲音等在內的一系列類人特徵。這些特徵形成了一種讓用戶熟悉的個性,能幫助用戶更好地與AI產生共鳴,並能夠更加舒適地與其互動。
其他研究人員還發現,那些不願將AI擬人化的人對AI能力的信任度也較低,從而導致他們抗拒對AI的使用。例如,與和人類電話推銷員通話相比,那些不願將電話推銷聊天機器人擬人化的人,往往會更快結束與聊天機器人的通話。
雖然將AI擬人化往往能提升採用率,但有時也會適得其反,就像獲取治療性傳播疾病藥物這樣敏感或尷尬的情況。在這種情況下,消費者往往更喜歡沒有人類特徵的AI,因為他們相信這樣的AI更少評判他人。

人們認為AI太僵化
人們通常認為犯錯有助於人類的學習和成長,而不會把犯錯當成一個標誌,意味著這個缺陷不可更改。但人們經常會認為AI工具是死板的,不善於調整和進化:這種信念很可能源於人們的過往經驗,認為機器只是執行有限功能的靜態設備。
這種認知會降低人們對技術的信任,並對技術在新場景中能發揮的效能產生擔憂。然而,研究表明,當人們得知AI具有自適應學習能力時,消費者對AI的使用率就會上升。即使只是一些暗示AI具有學習潛力的命名,例如將AI稱為「機器學習」而不只是 「算法」,也能提高用戶的參與度。奈飛會經常宣傳它是如何隨著收集更多的用戶觀看習慣數據而不斷改進其內容推薦算法的。為了強化這一觀點,奈飛將推薦內容打上了「為您」等標籤,並會解釋說推薦這些內容的原因是 「因為您曾觀看了x」,從而進一步增強了用戶關於算法的印象,算法是在一直考慮他們不斷變化的偏好的。
那些認為AI缺乏靈活性的人們可能會認為,AI會對每個人一視同仁,生搬硬套一刀切的方式方法,因此忽略了個體的獨特性。的確,消費者越認為自己與眾不同,就越不會使用AI。例如,一項研究表明,參與者越是認為自己的道德特徵突出,就會對評估道德品質的AI系統越發抗拒。
與此同時,靈活性和可預測性之間也存在著微妙的平衡。儘管公司強調AI的學習和進化能力,通常會提高AI的採用率,但如果用戶覺得系統的輸出過於不可預測,這種做法也可能會適得其反。
因為適應性更強的AI系統可以支持更多樣的用戶互動方式,而其中的一些互動方式可能無法被用於AI訓練的數據捕捉到,因此風險也往往更大。而當AI變得更加靈活時,人們以不恰當的方式使用它的可能性也會增加,在這種情況下,算法可能會做出不恰當的反應,給用戶和公司帶來新的風險。
因此,AI系統必須在靈活性與可預測性和安全性之間取得平衡。它們可以通過納入用戶反饋,並添加可以正確處理意外輸入的安全保護措施來做到這一點。
人們認為AI過於自主
無需人類主動干預就能執行任務的AI工具往往會讓人們感覺受到了威脅。人類從很早就開始努力掌控自己周圍的環境,去實現自己的目標。因此,如果某些創新削弱了他們對局勢的掌控力,人類本能地不願意採用。
AI賦予算法卡奧度的獨立性,使其能夠製定策略、採取行動並不斷完善自身能力,而所有這些應對新情況的調整,都無需人類直接的引導。AI工具不僅僅是提供協助,而是會完全接管某些之前由人類來處理的任務,這一可能性激起了人們強烈的擔憂和顧慮。例如,絕大多數美國人(76%)對乘坐自動駕駛汽車感到擔憂。同樣,人們擔心智能家居設備可能會侵犯他們的隱私,偷偷收集他們的個人數據,並會以不可預見的方式使用這些數據。
人們不願意把任務交給AI的另一個原因,是因為他們認為自己的個人表現要優於AI技術的表現。有意思的是,在一個實驗中,我發現,從美國各地選出的1600多名年齡從18歲到86歲的參與者,相比為自己選擇的汽車的自動化水平,參與者會為他人選擇自動化水平更高的汽車。原因何在?因為他們認為相比自動駕駛汽車,自己是更好的司機,而其他人則不是更好的司機。
為了提高AI系統的利用率,公司可以通過讓人們為系統提供輸入,也就是形成所謂的 「人類參與式系統」,來找回消費者的掌控感。Nest是一款允許用戶對其進行個性化設置的智能家居產品,比如通過手動來調節溫控器或去設置特定的時間表。用戶可以選擇自動學習或手動輸入的方式。掌控感還可以通過對產品設計元素的調整來增強。例如,iRobot公司選擇將Roomba吸塵器設置為按照可預測的路徑移動,而不是按照可能會讓吸塵器顯得 「很活躍」的不可預測的路徑移動。
然而,讓人們對AI系統擁有過多的控制權有可能會降低其產出的質量和效率。幸運的是,研究發現,只需保留少量的干預能力就能讓消費者感到舒適。因此,營銷人員可以對AI系統進行校準,取得人類控制感和系統準確性之間的最佳平衡。
人們更願意與人類互動
在一項研究中,我考察了人們是更願意接受人類銷售員的服務,還是接受假想的,被描述為在外觀和身心能力上與人類無異的AI機器人的服務。在一系列包括與人類或機器人銷售員互動的預期舒適度、到訪他們所在商店的意願,以及預期的客戶服務水平等衡量標準上,參與者都一致傾向於人類銷售員。這一結果源於人們對機器人沒有人類的意識,缺乏對意義的理解能力的信念。此外,參與者認為機器人與人類的差異越大(通過參與者對諸如「在道德層面,機器人永遠不如人類」等說法的認可程度的打分來衡量),他們表現出的這種偏好就越強烈。
文化背景很可能是反AI傾向中的一個重要因素。例如,比起其他國家,即使是無生命的物體也有靈魂或精神這一信念在日本更被廣為接受,這可能會導致與人類高度相似的AI在日本會更容易被接受。
無論公司在AI上投入多少資金,領導團隊都必須考慮那些影響人們使用AI的心理障礙。同時也必須認識到,對於我所描述的五種障礙中的任何一個,一些旨在提高接受度的干預措施,都有可能在無意中增加了對AI的牴觸。
相較於直接進入解決方案模式,領導者們更應該謹慎行事。每一個AI系統、應用、測試和全面部署,都會遇到不同的障礙。領導者的職責就是認識到這些障礙,幫助客戶和員工克服它們。
作者:朱利安·德費爾塔斯(Julian De Freitas)。朱利安·德費爾塔斯是哈佛商學院市場營銷學助理教授。
本文來自微信公眾號「哈佛商業評論」(ID:hbrchinese),作者:HBR-China,翻譯:DeepL,編輯:程明霞,36氪經授權發佈。