人機協同中的算法抉擇

在這個由數據驅動的時代,AI正以前所未有的速度發展。隨著這一技術的普及和市場化,我們可能在很長的一段時間里,都需要與之共存。由此,人機協同也變成一項很重要的課題,正逐漸成為推動社會進步的關鍵力量。無論是在醫學診斷、金融投資,還是客戶服務中,我們都能看到算法與人類合作完成複雜任務的身影。

所謂人機協同中的算法,指的是那些被設計用來輔助、增強甚至部分替代人類決策和行動的計算規則和模型。從簡單的搜索引擎排序,到複雜的深度學習模型,這些算法被賦予了強大的信息處理能力,可以幫助人類高效地應對海量數據和煩瑣計算。

研究人機協同中的算法,核心在於找到算法擅長領域和人類優勢的最佳結合點,從而既能發揮技術的效率,又能保留人類的靈活性和價值判斷力,實現真正意義上的「1+1>2」的效果。

算法的兩面性

人機協同並不是一個全新的話題。長期以來,我們一直將算法視為輔助人類決策和完成任務的工具。算法在決策中具有顯著優勢,比如快速處理海量數據、識別複雜模式以及保持一致性,尤其在數據驅動和結構化任務中表現尤為出色。

然而,學術研究也揭示了算法的局限性。例如,在處理模糊、不確定性高或需要情境理解的問題時,算法往往不如人類直覺敏銳。此外,算法的表現高度依賴於數據質量和訓練模型的設計,而人類則能夠在有限信息下通過經驗和推理做出高質量決策。因此,算法與人類在決策中能夠形成互補關係。算法擅長分析並提供客觀建議,而人類則結合情境、倫理和長期戰略視角優化最終決策。

從合作模式來看,人機協同主要有兩種常見方式。第一種是平行合作,即算法和人類同時解決類似的問題。算法的決策作為參考意見,由人類進行最終判斷。常見的例子包括金融借貸審核和醫療診斷等場景。第二種是序列合作,即算法提供參考意見,但任務的最終完成仍需要人類的介入。例如,算法輔助監督下的騎手配送任務。

由此可見,在當前階段的許多人機協同中,人類通常是最終的決策者或執行者。如何讓人類願意接受算法建議、主動配合算法執行,甚至在必要時對算法偏差進行糾正,已成為人機協同成敗的關鍵因素。

現有文獻中,學者們探討了很多人的行為決策,嘗試從人的角度去理解上述問題。但我們也可以從算法的角度去嘗試理解和調整人機協同的設計和效果。

值得說明的是,在算法設計中,可解釋性(interpretability)與準確性(accuracy)往往存在權衡。高準確性的複雜模型(如深度學習)能夠捕捉數據中的非線性模式和微妙關係,但其內部機制較難被人類理解,從而可能降低透明性和信任度。而簡單模型(如線性回歸或決策樹)雖然更易於解釋,但通常在複雜問題中表現出較低的預測準確性。

算法可解釋性在人機協同中至關重要,因為它是建立信任和有效協作的關鍵。相關研究表明,當算法的預測或建議能夠被清晰解釋時,用戶更容易理解其決策邏輯,從而增強信任並更高效地結合自己的專業知識做出最終判斷。相反,如果算法是「黑箱模型」,用戶可能會因缺乏透明性而對其建議產生懷疑或完全依賴,導致次優決策或潛在風險。

在人機協同中,如何解決這種權衡問題呢?為瞭解決算法可解釋性在實際應用中的挑戰,研究者和從業者提出了多種方法。其中,可解釋人工智能(explainable AI, XAI)是最具代表性的框架之一。XAI通過技術手段讓複雜模型的決策過程更加透明。例如,可以使用特徵重要性分析方法(如SHAP值或LIME)來量化各變量對預測結果的貢獻;或者通過生成易於理解的規則,直觀地描述模型的行為。這些方法在確保模型準確性的同時,還提高了用戶對算法的信任和理解能力,從而有力地提高了人機協同的有效性與成功率。

以金融信貸為例,在與一家國內小額貸款機構的合作研究中,我們嘗試讓信審員與算法共同配合決定每一個借貸申請的判別。通過一系列的實驗,我們發現,當且僅當我們提供了算法的解釋信息之後,人類信審員在處理相對複雜的任務(即判別所需的信息較為煩瑣複雜的情況)時,他們的參與才可能顯著降低貸款違約率,實現比純算法決策更優的表現。

另一個重要的解決思路是將人置於決策循環中(human in the loop,HITL)。它強調算法與人類合作的設計理念,核心在於算法不應完全獨立運作,而應作為輔助工具,與人類的經驗和判斷相結合。通過這種方式,HITL能夠在優化決策效率的同時,提升決策的可靠性和靈活性。金融行業中的欺詐檢測系統是 HITL的典型應用。銀行通過機器學習算法實時監測交易行為,標記潛在的高風險交易,例如異常大額跨國轉賬。隨後,人工分析員介入,對可疑交易進行複審,結合客戶背景信息和系統建議做出最終判斷。這種人機合作模式既發揮了機器快速處理海量數據的優勢,又利用人類在複雜、不確定情境中的專業判斷能力,有效減少了誤報和漏報。此外,人工分析結果還會反饋到系統中,用於優化模型性能,從而不斷提升整體決策效率和精準度。

除此之外,另一種具體的實現方式是增加算法與用戶的交互,通過提供用戶友好的界面或反饋機制,使人類能夠實時干預或調整算法的輸出。例如,在供應鏈管理中,決策者可以根據實際庫存水平或市場動態修改算法生成的採購計劃。這種交互式設計不僅增強了算法的靈活性,還幫助用戶更深入地理解其工作原理,為進一步優化提供了可能。

比如,傳統的訂單打包優化算法通常專注於最大化箱子的空間利用率,但往往忽略了工人行為偏差對效率的影響。在研究阿里巴巴集團倉庫的打包流程時,孫建坤等發現,工人在打包5.8%的包裹時偏離了算法建議,這不僅增加了打包時間,還降低了運營效率。他們深入分析發現,這些偏差主要源於兩種機制:(1)信息偏差,即工人基於自身經驗或信息做出的優於算法的決策;(2)複雜性偏差,即由於工人對算法建議的抗拒、無法精確執行或主觀判斷而導致的偏離。為解決這些問題,他們設計了一種「以人為中心的打包優化算法」,利用算法預測工人可能偏離算法的情況(如更換更大箱子的傾向),並主動調整相關訂單的打包建議。在與阿里巴巴合作開展的大規模隨機實驗中,這一新算法將目標包裹的更換大箱子率從29.5%降低到23.8%,同時將目標包裹的平均打包時間減少了4.5%。

此外,HITL還包括讓人類對算法的結果進行解讀和闡釋,特別是在涉及多個利益相關方的複雜場景中。管理者可以將算法的預測結果轉化為更具行動指導性的建議,同時結合商業目標、法律合規和倫理考量做出最終決策。這種闡釋過程不僅是決策鏈中的關鍵環節,還能為組織內部的信任建設和知識傳遞創造價值。通過合理引入人的參與,HITL模式實現了人類直覺與算法智能的互補,推動了更平衡、更透明的決策體系發展。例如,羅學明等發現,在銷售人員的培訓中,歷史業績較差的銷售人員容易因信息過載而受挫,而歷史業績排名靠前的銷售人員則對AI教練表現出強烈排斥。如果能結合AI教練與人類教練(即人類管理者)的「混合指導」,其效果優於單獨依靠其中任何一方。這種組合利用了AI教練的數據分析能力和人類管理者的溝通技巧,成功解決了排名靠前和靠後銷售人員面臨的不同問題。

如何看待算法偏差?

另一個繞不開的問題是算法偏差。這是指算法因訓練數據或設計過程中的不平衡而表現出的系統性誤差。這種偏差在人機協同中可能帶來嚴重問題,例如強化已有的不公平或偏見,導致不平等決策。

在招聘、貸款審批等高影響領域,算法偏差可能放大社會不公,使得某些群體因數據代表性不足或歷史歧視而被系統性低估或排除。人類參與的信任可能因此受損,從而影響協同效率。

為緩解算法偏差,可以採取多種解決方案:一是確保訓練數據的多樣性與平衡性,避免某些群體被過度或不足代表;二是引入公平性約束或偏差檢測工具,在算法開發和部署階段實時評估和糾正偏差;三是在人機協同中通過人類的監督和審查來識別潛在的偏差。例如,管理者可以對算法結果進行跨群體的對比數析,發現並修正異常。此外,增加用戶的透明度教育和反饋機制也有助於及時發現問題並改進系統,從而實現更公平和負責任的人機協同。

隨著AI的發展,特別是生成式AI的逐步成熟和普及,算法在人機協同中的作用也在隨之增大。例如,近幾個月來,有不少文獻指出,大語言模型(large language models, LLMs)可以顯著簡化問卷設計和生成的過程,成為一種高效的問卷自動生成工具。通過自然語言處理能力,LLMs能夠快速生成多樣化的問卷問題,從基本人口統計到複雜的行為洞察,甚至根據上下文或目標受眾的特定需求定製問題。相比傳統手動設計,LLMs能夠縮短時間和降低成本,同時提高問卷的語言流暢性和邏輯性。這一能力對商業領域影響深遠。例如,企業可以利用LLMs快速設計市場調研問卷,以更靈活地捕捉消費者偏好。此外,LLMs還能根據實時調研結果動態調整後續問題,增強數據收集的針對性和深度,從而為企業提供更全面和精確的決策支持。

更重要的是,隨著生成式AI的成熟,人類與AI的關係正從合作(collaboration) 向更深層次的團隊協作(teaming)演變。這種轉變的核心在於,AI不僅作為輔助工具提供支持,還逐漸展現出與人類「共事」的能力,形成更具動態性和互補性的合作關係。尤其是以LLMs為代表的生成式人工智能,憑藉其通用知識能力,正從單純的認知智能(cognitive intelligence)擴展到情感、社交和創造性智能。例如,通過對上下文和文化的深度理解,LLMs可以在多方會議或團隊合作中充當調解者或信息整合者,促進溝通與協調。此外,LLMs在生成創意內容(如廣告文案、設計概念)方面表現突出,可激發人類的靈感並提升創意效率。

人機團隊協作新挑戰

首先,AI可以推動從「領導指揮」到「協同創造」的決策模式重塑,幫助企業更快、更全面地應對複雜問題。其次,AI作為團隊成員的引入,將改變組織文化,要求管理者在信任與責任之間找到平衡。此外,員工需要掌握新的技能,包括如何正確解讀AI建議、管理AI輸出,以及為AI訓練提供反饋,從而提升團隊整體的生產力與創新能力。

然而,人機團隊協作也會帶來挑戰。如角色分配和信任建立,即如何明確AI與人類在團隊中的角色與職責,在持續的互動中建立對AI決策的適當信任並解決可能出現的意見衝突,而非過度依賴或完全忽視;認知差異的調和,即AI基於數據驅動的邏輯推理與人類基於經驗和情感判斷可能出現矛盾,如何平衡兩者的視角;以及動態適應性,當任務或環境發生變化時,團隊需要調整策略,如何通過激勵機制設計來保證AI和人類在變化的環境中能保持相應的積極性和適應性。

此外,技術在推動效率和創新的同時,也帶來了不可忽視的「外部性」。例如,AI系統可能通過使用歷史數據來優化招聘流程,但這些數據本身可能包含偏見,導致對某些群體的不公平對待。在長期的AI工具介入的環境下,這種現象可能會被不斷迭代放大,在社會中進一步加劇不平等。考慮到AI應用可能帶來的諸多挑戰,學者們提出了「有意識的人工智能」(mindful AI)理念,試圖在開發和部署AI時,明確不僅僅追求效率或利潤,還要關注公平性、包容性等價值目標,並且考慮AI系統對不同群體、社會整體以及環境的長期影響。未來,企業需要構建透明的AI治理框架,避免AI 成為「替罪羊」或權力集中化的工具;並通過教育與實踐,最大化AI的潛力,實現從協作到共創的深度融合。MI·專題

參考文獻

Goli A, Singh A. Frontiers: Can Large Language Models Capture Human Preferences?[J]. Marketing Science, 2024.

Bubeck S, Chandrasekaran V, Eldan R, et al. Sparks of artificial general intelligence: Early experiments with gpt-4[J]. arXiv preprint arXiv:2303.12712, 2023.

Luo X, Qin M S, Fang Z, et al. Artificial intelligence coaches for sales agents: Caveats and solutions[J]. Journal of Marketing, 2021, 85(2): 14-32.

Sun J, Zhang D J, Hu H, et al. Predicting human discretion to adjust algorithmic prescription: A large-scale field experiment in warehouse operations[J]. Management Science, 2022, 68(2): 846-865.

本文來自微信公眾號「複旦商業知識」(ID:BKfudan),作者:張穎婕,36氪經授權發佈。