陳丹琦等人組織的COLM獎項公佈:被ICLR拒稿的Mamba入選傑出論文

機器之心報導

機器之心編輯部

會議組織者都是 NLP 頭部科學家,在語言建模方面有著相當的成果。

隨著 AI 領域的快速發展,大模型逐漸成為研究的核心,為了更好地探索這一領域,2023 年,一批知名的青年學者組織了一個名為 COLM(Conference on Language Modeling)的新會議。

該會議的組織者們都是 NLP 頭部科學家,在語言建模方面有著相當的成果。他們其中既有來自業界的研究人員,也有來自學術界的研究人員。

在今年的組織者中,有我們熟悉的陳丹琦、Angela Fan 等華人學者。

COLM 是一個專注於語言建模研究的學術場所,旨在創建一個具有不同科學專業知識的研究人員社區,專注於理解、改進和評論語言模型技術的發展。這不僅是學術界的一次創新嘗試,也是搭起了語言模型交流互鑒的新橋樑,進一步促進其探索和合作。

接收論文鏈接:https://colmweb.org/AcceptedPapers.html

剛剛,大會公佈了 2024 年傑出論文獎,共有 4 篇論文獲獎。

值得一提的是,號稱撼動 Transformer 統治地位的 Mamba 也在獲獎論文中。

不過,之後 Mamba 原班人馬發佈的 Mamba-2 順利拿下了 ICML 2024。如今 Mamba 又獲得了 COLM 傑出論文獎,很多網民都送來祝賀。

Mamba 作者之一、卡內基梅隆大學機器學習系助理教授 Albert Gu 用一張表情很好的表達了自己的感受,看來「COLM 是真香」。

傑出論文獎

論文 1:Dated Data: Tracing Knowledge Cutoffs in Large Language Models

  • 機構:霍普金斯大學

  • 作者:Jeffrey Cheng、Marc Marone、Orion Weller、Dawn Lawrie等

  • 論文地址:https://openreview.net/pdf?id=wS7PxDjy6m

大型語言模型 (LLM) 通常有「知識截止日期」,即收集訓練數據的時間。該信息對於需要 LLM 提供最新信息的應用場景至關重要。

然而,訓練數據中所有子資源是否共享相同的「知識截止日期」?模型響應展示出的知識是否與數據截止值一致?

該論文定義了「有效截止」的概念,它與 LLM 報告的「知識截止日期」不同,並且訓練數據子資源之間也有所不同。該研究提出了一種簡單的方法,通過跨版本的數據探測來估計 LLM 在資源級別的有效截止點。至關重要的是,該方法不需要訪問模型的預訓練數據。

通過分析,該研究發現有效的截止值通常與報告的截止值有很大不同。為了瞭解這一觀察結果的根本原因,該研究對開放的預訓練數據集進行了大規模分析。

分析揭示了造成這些不一致的兩個主要原因:

  • 由於新 dump 中存在大量舊數據,導致 CommonCrawl 數據出現時間錯位; 

  • LLM 重覆數據刪除方案的複雜性涉及語義重覆和詞彙近似重覆。

論文 2:Mamba: Linear-Time Sequence Modeling with Selective State Spaces

  • 機構:卡內基梅隆大學、普林斯頓大學

  • 作者:Albert Gu、Tri Dao

  • 論文地址:https://arxiv.org/pdf/2312.00752

自 2017 年被提出以來,Transformer 已經成為 AI 大模型的主流架構,但隨著模型規模擴大和處理序列變長,其計算效率問題凸顯,特別是在長上下文中,計算量將呈平方級增長。

為解決這一問題,研究者們圍繞注意力開發了多種變體,如線性注意力、門控卷積、循環模型、SSMs 等,但它們在語言等模態上的表現並不理想,無法進行基於內容的推理。

基於此,論文作者進行了幾項改進。首先,讓 SSM 參數成為輸入的函數,解決了離散模態的弱點,使模型能根據當前 token 有選擇地傳播或遺忘信息。

這種改動導致卷積效率降低,對模型的計算帶來了挑戰。論文作者設計了一種硬件感知算法,將先前的 SSM 架構設計與 Transformer 的 MLP 塊合併為一個塊,簡化了深度序列模型架構,形成了一種包含選擇性狀態空間的簡單、同質的架構設計(Mamba)。

Mamba 可以隨上下文長度的增加實現線性擴展,其性能在實際數據中可提高到百萬 token 長度序列,並實現 5 倍的推理吞吐量提升。

作為通用序列模型的骨幹,Mamba 在語言、音頻和基因組學等多種模態中都達到了 SOTA 性能。在語言建模方面,無論是預訓練還是下遊評估,他們的 Mamba-3B 模型都優於同等規模的 Transformer 模型,並能與兩倍於其規模的 Transformer 模型相媲美。

論文 3:AI-generated text boundary detection with RoFT

  • 機構:俄羅斯 AI 基金會與算法實驗室、英國倫敦瑪麗女王大學、日本 Noeon 研究所、斯高爾科沃科學技術學院等

  • 作者:Laida Kushnareva, Tatiana Gaintseva, Dmitry Abulkhanov等

  • 論文地址:https://arxiv.org/pdf/2311.08349

隨著大語言模型的發展,我們越來越頻繁地遇到這樣的情況:一篇文章起初可能出自人類之手,但隨後可能被 AI 接手加以潤色。如何從這種文本中檢測出人類寫作與機器生成的界限?這是一個具有挑戰性的問題,但還尚未得到太多關注。

論文作者試圖填補這一空白。他們對最先進的檢測方法進行了測試。具體而言,他們採用「真假文本」測試集,測試了在極限情況下,這些方法的表現。「真假文本」測試集包含各種語言模型生成的多個主題的短文本。

他們發現,基於困惑度的邊界檢測方法,在處理特定領域的數據時,比對 RoBERTa 模型進行監督式的方法更加魯棒。他們還發現了一些特定的文本特徵。這些特徵可能會幹擾邊界檢測算法的判斷,導致算法在處理跨領域的文本時,其性能會下降。

論文 4:Auxiliary task demands mask the capabilities of smaller language models