多樣任務真實數據,大模型在線購物基準Shopping MMLU開源|NeurIPS&KDD Cup 2024
港科大博士金逸倫 投稿
量子位 | 公眾號 QbitAI
誰是在線購物領域最強大模型?也有評測基準了。
基於真實在線購物數據,電商巨頭亞馬遜終於「亮劍」——
聯合香港科技大學、聖母大學構建了一個大規模、多任務評測基準Shopping MMLU,用以評估大語言模型在在線購物領域的能力與潛力。
一直以來,想要完整建模在線購物相當複雜,主要痛點是:
-
多任務性:在線購物中存在多樣的實體(例如商品、屬性、評論、查詢關鍵詞等)、關係(例如關鍵字和商品的匹配度,商品和商品之間的兼容性、互補性)和用戶行為(瀏覽、查詢、和購買)。
對這些實體、關係和行為和聯合建模與理解構成一個複雜的多任務(multi-task)學習問題。
-
少樣本性:在線購物平台會不斷面臨新用戶、新商品、新商品品類等帶來的冷啟動(cold-start)場景。在冷啟動場景下,在線購物平台需要解決少樣本(few-shot)學習問題。
不過,諸如GPT,T5,LLaMA等的大語言模型(LLM)已經展現出了強大的多任務和少樣本學習能力,因而有潛力在在線購物領域中得到廣泛應用。
而為了進一步找出最強、最具潛力的LLM,測試基準Shopping MMLU應運而生——
與現有數據集相比,Shopping MMLU覆蓋了更多的能力(四項)和任務(57個)。
同時,基於Shopping MMLU,亞馬遜舉辦了KDD Cup 2024數據挖掘競賽,吸引了全球超過500支隊伍參賽。
廣泛的能力和任務覆蓋
為了全面、充分評估大語言模型在在線購物領域中的能力,研究首先分析了在線購物領域的獨特性:
-
特定領域的短文本:在線購物中存在大量的特定領域名詞,例如品牌、產品名、產品線等。此外,這些特定領域名詞往往出現於短文本中,例如查詢關鍵詞、屬性名-值對等。因此,在缺乏上下文的短文本中理解特定領域名詞,是在線購物領域的一個獨特挑戰。
-
商品的隱含知識:大部分商品都隱含特定的知識,例如AirPods使用藍牙連接,不需要轉接線;碳纖維製品一般重量很輕等。如何準確理解不同商品隱含的知識並且進行推理,是在線購物領域的另一個獨特挑戰。
-
異質且隱式的用戶行為:在線購物平台上存在多種多樣的用戶行為,例如瀏覽、查詢、加購物車、購買等。這些行為大部分都不以語言表達,因此如何全面理解這些異質的用戶行為,是在線購物所必須解決的問題。
-
多語言任務:在線購物平台往往在不止一個地區運營,因此需要模型能同時理解多種語言描述下的商品和用戶問題。
基於以上分析,研究構造了Shopping MMLU,覆蓋四項在線購物能力,共計57個任務:
-
在線購物概念理解
-
在線購物知識推理
-
用戶行為理解
-
多語言能力
下表可見,Shopping MMLU相比現有數據集覆蓋了更多的能力和任務。
能力和任務構成如下圖所示。
Shopping MMLU大部分由真實的亞馬遜在線購物數據構造,並且經過人工檢驗,儘可能排除低質量數據,例如標註錯誤,缺乏必要信息等。
部分問題示例如下。
主流大語言模型成績單
研究選取了共27個主流大語言模型進行實驗分析,其中包括:
-
閉源模型(Claude-3, Claude-2, GPT)
-
開源通用領域模型(LLaMA2、LLaMA3、QWen、Mistral)
-
開源特定領域模型(eCeLLM,經過在線購物領域數據進行微調)
實驗結果如下表所示。
研究發現,雖然閉源模型仍然處於領先(例如Claude-3 Sonnet整體排名第一),但開源模型已經能夠趕上閉源模型的性能(例如QWen和LLaMA3)。
此外,特定領域模型eCeLLM並未在同參數量級下取得最好成績,說明Shopping MMLU是一個有相當難度的評測基準,無法通過簡單的微調取得好成績。
如何打造在線購物領域大模型
基於Shopping MMLU,研究分析常用的大模型增強手段,進一步探究如何打造強大的在線購物領域大模型。
首先,如下圖所示,模型在不同能力和任務上的得分高度正相關。這說明了在線購物領域的不同任務之間存在共同的知識,可以使用大語言模型進行整體性的建模和能力提升。
其次,如下圖所示,模型的Shopping MMLU得分和模型在通用大模型基準測試的得分(Open LLM Leaderboard)同樣高度相關。
另外,隨著同一個模型家族內模型增大,其Shopping MMLU得分同樣增加。
這表明大語言模型的通用能力可以很好地遷移到在線購物領域中,構造特定領域大模型的基礎是強大的通用能力。
隨後,研究分析了微調對模型在Shopping MMLU得分的影響。
通用領域的微調一般對模型在Shopping MMLU上有提升。不過,這一結論也與基礎模型的能力,微調的數據質量等因素存在關係。
例如,在LLaMA2-70B上,研究觀察到經過微調的LLaMA2-70B-chat得分低於LLaMA2-70B,而在LLaMA3-70B上沒有觀察到這一現象。
可能的原因是,相對較小的微調數據使得LLaMA2-70B過擬合,導致通用能力的部分丟失,進而導致Shopping MMLU上得分下降。
反之,LLaMA3使用了更高質量的微調數據,所以能夠保留通用能力,同時增強模型回答問題的能力,得到更高的分數。
特定領域微調(如eCeLLM)並未能在Shopping MMLU上取得最高得分。
為了探究其中原因,研究測試了eCeLLM與其基礎模型在通用能力上的對比。結果表明,經過特定領域微調的eCeLLM相比其基礎模型的通用能力一般有所下降。
這可能是導致eCeLLM未能取得最高得分的原因,也同時強調了通用能力對於對特定領域的重要性。
總結
Shopping MMLU是一個針對大語言模型和在線購物領域設計的評測指標。其包含廣泛的任務和能力覆蓋(4項重要能力,共計57個任務),可以全面評估大語言模型在在線購物領域的能力和潛力。
Shopping MMLU基於亞馬遜的真實購物數據打造,經過人工篩選,保證數據質量。基於Shopping MMLU,研究展開了大量實驗分析,為這一領域後續的研究和實際應用提供了有價值的結論。
目前,Shopping MMLU以及其對應的資源全部開源並將持續維護,方便研究人員和開發者進行深入探索和應用。
Shopping MMLU的數據以及對應評測代碼已經於GitHub公開。
同時,為了構造開放、開源的評測體系,研究基於Shopping MMLU建立了一個排行榜。
官方表示,Shopping MMLU歡迎新模型加入排行榜,如果有興趣的話可以於GitHub上與Shopping MMLU維護者進行聯繫。
論文:
https://arxiv.org/pdf/2410.20745
數據及評測代碼:
https://github.com/KL4805/ShoppingMMLU
KDD Cup 2024 Workshop及獲獎隊伍解法:
https://amazon-kddcup24.github.io/
評估榜單:
https://huggingface.co/spaces/KL4805/shopping_mmlu_leaderboard