讓模型預見分佈漂移:動態系統顛覆性設計引領時域泛化新革命|NeurIPS 2024
新智元報導
編輯:LRST
【新智元導讀】研究人員提出了一種方法,能夠在領域數據分佈持續變化的動態環境中,基於隨機時刻觀測的數據分佈,在任意時刻生成適用的神經網絡,實現前所未有的泛化能力。
在實際應用中,數據集的數據分佈往往隨著時間而不斷變化,預測模型需要持續更新以保持準確性。
時域泛化旨在預測未來數據分佈,從而提前更新模型,使模型與數據同步變化。
然而,傳統方法假設領域數據在固定時間間隔內收集,忽視了現實任務中數據集採集的隨機性和不定時性,無法應對數據分佈在連續時間上的變化。
此外,傳統方法也難以保證泛化過程在整個時間流中保持穩定和可控。
為此,研究人員提出了連續時域泛化任務,並設計了一個基於模型動態系統的時域泛化框架Koodos,使得模型在連續時間中與數據分佈的變化始終保持協調一致。
下圖展示了模型在領域數據隨時間發生旋轉和膨脹時的泛化表現。通過在一些隨機時間點(藍色標記點)的觀測,模型可以在任意時刻生成適用的神經網絡,其決策邊界始終與數據分佈保持協調一致。
Koodos通過庫普曼算子將模型的複雜非線性動態轉化為可學習的連續動態系統,同時利用先驗知識以確保泛化過程的穩定性和可控性。實驗表明,Koodos顯著超越現有方法,為時域泛化開闢了全新的研究方向。
開源代碼:https://github.com/Zekun-Cai/Koodos/
逐步教程:
https://github.com/Zekun-Cai/Koodos/blob/main/Tutorial_for_Koodos.ipynb
研究人員在代碼庫中提供了詳細的逐步教程,涵蓋了Koodos的實現、核心概念的解讀以及可視化演示。整個教程流程緊湊,十分鐘即可快使掌握Koodos的使用方法,力薦嘗試!
研究背景
在實際應用中,訓練數據的分佈通常與測試數據不同,導致模型在訓練環境之外的泛化能力受限。領域泛化(Domain Generalization, DG)作為一種重要的機器學習策略,旨在學習一個能夠在未見目標領域中也保持良好表現的模型。
近年來研究人員發現,在動態環境中,領域數據(Domain Data)分佈往往具有顯著的時間依賴性,這促使了時域泛化(Temporal Domain Generalization, TDG)技術的快速發展。
時域泛化將多個領域視為一個時間序列而非一組獨立的靜態個體,利用歷史領域預測未來領域,從而實現對模型參數的提前調整,顯著提升了傳統DG方法的效果。
然而,現有的時域泛化研究集中在「離散時間域」假設下,即假設領域數據在固定時間間隔(如逐周或逐年)收集。
基於這一假設,概率模型被用於預測時域演變,例如通過隱變量模型生成未來數據,或利用序列模型(如LSTM)預測未來的模型參數。然而在現實中,領域數據的觀測並不總是在離散、規律的時間點上,而是隨機且稀疏地分佈在連續時間軸上。
例如,圖1展示了一個典型的例子——基於推文數據進行社交媒體輿情預測。與傳統TDG假設的領域在時間軸上規律分佈不同,實際中只能在特定事件(如總統辯論)發生時獲得一個域,而這些事件的發生時間並不固定。
同時,概念漂移(Concept Drift)在時間軸上發生,即領域數據分佈隨著時間不斷演變:如活躍用戶增加、新交互行為形成、年齡與性別分佈變化等。理想情況下,每個時態域對應的預測模型也應隨時間逐漸調整,以應對這種概念漂移。
最後,由於未來的域採集時間未知,預測模型需要泛化到連續時間的任意時刻。
圖1:連續時域泛化示意圖。圖中展示了通過推文訓練分類模型進行輿情預測。其中訓練域僅能在特定政治事件(如總統辯論)前後採集。研究人員的目標是通過這些不規律時間分佈的訓練域來捕捉分佈漂移,最終使模型能夠推廣到任意未來時刻
事實上,領域分佈在連續時間上的場景十分常見,例如:
1. 事件驅動的數據採集:僅在特定事件發生時採集領域數據,事件之間沒有數據。
2. 流數據的隨機觀測:領域數據在數據流的任意時間點開始或結束採集,而非持續進行。
3. 離散時態域但缺失:儘管領域數據基於離散時間點採集,但部分時間節點的領域數據缺失。
為了應對這些場景中的模型泛化,研究人員提出了「連續時域泛化」(Continuous Temporal Domain Generalization, CTDG)任務,其中觀測和未觀測的領域均分佈於連續時間軸上隨機的時間點。
CTDG關注於如何表徵時態領域的連續動態,使得模型能夠在任意時間點實現穩定、適應性的調整,從而完成泛化預測。
核心挑戰
CTDG任務的挑戰遠超傳統的TDG方法。CTDG不僅需要處理不規律時間分佈的訓練域,還能夠讓模型泛化到任意時刻,即要求在連續時間的每個點上都能精確描述模形狀態。
而TDG方法則僅關注未來的單步泛化:在觀測點優化出當前模形狀態後,只需將其外推一步即可。
該特性使得CTDG區別於TDG任務:CTDG的關鍵在於如何在連續時間軸上同步數據分佈和模型參數的動態演變,而不是僅局限於未來某一特定時刻的模型表現。
具體而言,與TDG任務相比,CTDG的複雜性主要來自以下幾個尚未被充分探索的核心挑戰:
1. 如何建模數據動態並同步模型動態
CTDG要求在連續時間軸上捕捉領域數據的動態,並據此同步調整模形狀態。然而,數據動態本身難以直接觀測,需要通過觀測時間點來學習。此外,模型動態的演變過程也同樣複雜。理解數據演變如何驅動模型演變構成了CTDG的首要挑戰。
2. 如何在高度非線性模型動態中捕捉主動態
領域數據的預測模型通常依賴過參數化(over-parametrized)的深度神經網絡,模型動態因此呈現出高維、非線性的複雜特徵,導致模型的主動態嵌藏在大量潛在維度中。如何有效提取並將這些主動態映射到可學習的空間,是CTDG任務中的另一重大挑戰。
3. 如何確保長期泛化的穩定性和可控性
為實現未來任意時刻的泛化,CTDG必須確保模型的長期穩定性。此外,在許多情況下,用戶可能擁有數據動態的高層次先驗知識。如何將這些先驗知識嵌入CTDG的優化過程中,進而提升泛化的穩定性和可控性,是一個重要的開放性問題。
技術方法
問題定義
在CTDG中,一個域D(t)表示在時間t採集的數據集,由實例集
和N(t)分別為特徵值,目標值和實例數。
組成,其中
研究重點關注連續時間上的漸進性概念漂移,表示為領域數據的條件概率分佈P(Y(t)|X(t))隨時間平滑變化。
在訓練階段,模型接收一系列在不規律時間點T={t1,t2,…,tT}上收集的觀測域{D(t1),D(t2),…,D(tT)},其中每個時間點ti∈T是定義在連續時間軸R+上的實數,且滿足t1
在每個ti∈T上,模型學習到領域數據D(ti)的預測函數g(⋅;θ(ti)),其中θ(ti)表示ti時刻的模型參數;CTDG的目標是建模參數的動態變化,以便在任意給定時刻s∉T上預測模型參數θ(s),從而得到泛化模型g(⋅;θ(s))。
在後續部分中,使用簡寫符號Di、Xi、Yi和θi,分別表示在時間ti上的D(ti)、X(ti)、Y(ti)和θ(ti)
設計思路
該方法通過模型與數據的同步、動態簡化表示,以及高效的聯合優化展開。具體思路如下:
1. 同步數據和模型的動態
研究人員證明了連續時域中模型參數的連續性,而後借助神經微分方程(Neural ODE)建立模型動態系統,從而實現模型動態與數據動態的同步。
2. 表徵高維動態到低維空間
將高維模型參數映射到一個結構化的庫普曼空間(Koopman Space)中。該空間通過可學習的低維線性動態來捕捉模型的主要動態。
3. 聯合優化模型與其動態
將單個領域的模型學習與各時間點上的連續動態進行聯合優化,並設計了歸納偏置的約束接口,通過端到端優化保證泛化的穩定性和可控性。
解決方案
Step 1. 數據動態建模與模型動態同步
1. 分佈變化的連續性假設
首先假設數據分佈在時間上具有連續演化的特性,即條件概率分佈Pt(Y|X)隨時間平滑變化,其演化規律可由一個函數f所描述的動態系統刻畫。
儘管真實世界中的漸進概念漂移可能較為複雜,但因概念漂移通常源於底層的連續過程(如自然、生物、物理、社會或經濟因素),這一假設不失普適性。
2. 分佈變化引發的模型參數連續演化
基於上述假設,模型的函數功能空間g(⋅;θt)應隨數據分佈變化同步調整。
借助常微分方程來描述這一過程:
由此可推導出模型參數θt的演化滿足:
其中,Jg(θt)是g對θt的雅可比矩陣。
這一結果表明,如果數據分佈的演化在時間上具有連續性,那麼θt的演化過程也具有連續性,即模型參數會隨數據分佈的變化而平滑調整。上式為θt建立了一個由微分方程描述的模型動態系統。
3、模型動態系統學習
由於數據動態f的具體形式未知,直接求解上述微分方程並不可行。為此,引入一個由神經網絡定義的連續動態系統,用可學習的函數h(θt,t;ϕ)描述模型參數θt的變化。通過鼓勵模型動態和數據動態之間的拓撲共軛(Topological Conjugation)關係使h逼近真實動態。
具體而言,拓撲共軛要求通過泛化獲得的模型參數與直接訓練得到的參數保持一致。為此,設定以下優化目標,以學習h的參數ϕ:
其中,θi通過在時刻ti的領域上直接訓練獲得,
則表示從時間tj通過動態h演變至ti的泛化參數:
通過這一優化過程,可以建立模型動態與數據動態之間的同步機制;借助動態函數h,可以在任意時刻精確求解模型的狀態。
Step 2. 通過庫普曼算子簡化模型動態
非線性動態線性化
在實際任務中,預測模型通常依賴於過參數化的深度神經網絡,使得模型動態h呈現為在高維空間中糾纏的非線性動態。直接對h建模不僅計算量大,且極易導致泛化不穩定。
然而,h受數據動態f的支配,而數據動態通常是簡單、可預測的。這意味著在過參數化空間中,模型的主動態(Principal Dynamics)可以在適當轉換的空間內進行更易於管理的表示。
受此驅動,研究人員引入庫普曼理論(Koopman Theory)來簡化複雜的模型動態。庫普曼理論在保持動態系統特徵的同時將複雜的非線性動態線性化。
具體而言,定義一個庫普曼嵌入函數ϕ,將原始的高維參數空間映射到一個低維的庫普曼空間中:
其中,z表示庫普曼空間中的低維表示。通過庫普曼算子K,可以在線性空間中刻畫z的動態:
一旦獲得了簡化的動態表示,可以在庫普曼空間中更新模型參數,而後將其反映射回原始參數空間:
最終,通過庫普曼算子的引入,實現了對模型動態的簡化,保證了泛化過程的穩健性。
Step 3. 聯合優化與先驗知識結合
模型及其動力學的聯合優化
研究人員對多個組件同時施加約束確保模型能穩定泛化,其包含以下關鍵項:
1. 預測準確性:通過最小化預測誤差,使預測模型在每個觀測時間點都能準確預測實際數據。
2. 泛化準確性:通過最小化預測誤差,使泛化模型在每個觀測時間點都能準確預測實際數據。
3. 重構一致性:確保模型參數在原始空間與庫普曼空間之間的轉換具有一致性。
4. 動態保真性:約束庫普曼空間的動態行為,使得映射後的空間符合預期的動態系統特徵。
5. 參數一致性:確保泛化模型參數映射回原始空間後與預測模型參數保持一致。
利用庫普曼算子評估和控制泛化過程
引入庫普曼理論的另一優勢在於,可以通過庫普曼算子的譜特性來評估模型的長期穩定性。此外,還可以在庫普曼算子中施加約束來控制模型的動態行為。
– 系統穩定性評估
通過觀察庫普曼算子的特徵值,可以判斷系統是否穩定:
1、若所有特徵值實部為負,系統會穩定地趨向於一個平衡狀態。
2、若存在特徵值實部為正,系統將變得不穩定,模型在未來可能會崩塌。
3、若特徵值實部為零,系統可能表現出週期性行為。通過分析這些特徵值的分佈,可以預測系統的長期行為,識別模型在未來是否可能出現崩潰的風險。
– 泛化過程約束
可以通過對庫普曼算子施加顯式約束來調控模型的動態行為。例如:
1. 週期性約束:當數據動態為週期性時,可將庫普曼算子K設為反對稱矩陣,使其特徵值為純虛數,從而使模型表現出週期性行為。
2. 低秩近似:將K表示為低秩矩陣,有助於控制模型的自由度,避免過擬合到次要信息。
通過這些手段,不僅提高了泛化的長期穩定性,還增強了模型在特定任務中的可控性。
實驗
實驗設置
為驗證算法效果,研究人員使用了合成數據集和多種真實世界場景的數據集:
合成數據集
包括Rotated 2-Moons和Rotated MNIST數據集,通過在連續時間區間內隨機生成時間戳,並對Moons和MNIST數據按時間戳逐步旋轉生成連續時域。
真實世界數據集
1. 事件驅動數據集Cyclone:基於熱帶氣旋的衛星圖像預測風力強度,氣旋發生日期對應連續時域。
2. 流數據集Twitter和House:分別從任意時間段抽取推文和房價數據流構成一個領域,多次隨機抽取形成連續時域。
3. 不規則離散數據集Yearbook:人像圖片預測性別,從84年中隨機抽取40年數據作為連續時域。
實驗結果與分析
定量分析
研究人員首先對比了Koodos方法與各基線方法的定量性能。
表1顯示,Koodos方法在所有數據集上展現了顯著的性能提升。在合成數據集上,Koodos能夠輕鬆應對持續的概念漂移,而所有基線方法在這種場景下全部失效。
在真實世界數據集上,儘管某些基線方法(如CIDA、DRAIN和DeepODE)在少數場景中略有表現,但其相較於簡單方法(如Offline)的改進非常有限。
相比之下,Koodos顯著優於所有現有方法,彰顯出在時域泛化任務中考慮分佈連續變化的關鍵作用。
定性分析
1. 決策邊界
為直觀展示泛化效果,研究人員在Rotated 2-Moons數據集上進行了決策邊界的可視化。
該任務具有極高難度:模型需在0到35秒左右的35個連續時域上訓練,隨後泛化到不規律分佈在35到50秒的15個測試域。而現有方法通常只能泛化至未來的一個時域(T+1),且難以處理不規律的時間分佈。
圖2:2-Moons數據集決策邊界的可視化(紫色和黃色表示數據區域,紅線表示決策邊界)。從上到下比較了兩種基線方法和Koodos;從左到右顯示了部分測試域(15選7,所有測試域的分佈在時間軸上用紅點標記)。
圖2從15個測試域中選取了7個進行可視化。
結果清晰地表明,基線方法在應對連續時域的動態變化時表現不足。隨著時間推進,決策邊界逐漸偏離理想狀態。尤其是最新的DRAIN方法(ICLR23)在多步泛化任務中明顯失效。
相比之下,Koodos在所有測試域上展現出卓越的泛化能力,始終保持清晰、準確的決策邊界,與實際數據分佈變化高度同步。這一效果突顯了Koodos在時域泛化任務中的革命性優勢。
2. 模型演變軌跡
為更深入地分析模型的泛化能力,通過t-SNE降維,將不同方法的模型參數的演變過程(Model Evolution Trajectory)在隱空間中可視化(圖3)。
可以看出,Koodos的軌跡呈現出平滑而有規律的螺旋式上升路徑,從訓練域平滑延伸至測試域。
這一軌跡表明,Koodos能夠在隱空間中有效捕捉數據分佈的連續變化,並隨時間自然地擴展泛化。相比之下,基線模型的軌跡在隱空間中缺乏清晰結構,隨著時間推移,逐漸出現明顯的偏離,未能形成一致的動態模式。
時域泛化的分析與控制
在Koodos模型中,庫普曼算子為分析模型動態提供了有效手段。
對Koodos在2-Moons數據集上分析表明,庫普曼算子的特徵值在複平面上分佈在穩定區和不穩定區,這意味著Koodos在中短期內能穩定泛化,但在極長時間的預測上將會逐漸失去穩定性,偏離預期路徑(圖4b)。
為提升模型的穩定性,研究人員通過將庫普曼算子配置為反對稱矩陣(即Koodos+版本),確保所有特徵值為純虛數,使模型具有週期性穩定特性。
在這一配置下,Koodos+展現出高度一致的軌跡,即使在長時間外推過程中依然保持穩定和準確,證明了引入先驗知識對增強模型穩健性的效果(圖4c)。
圖4:非受控和受控條件下的極長期泛化預測模型軌跡。a:部分訓練域數據;b:不受控,模型最終偏離預期;c:受控,模型始終穩定且準確。
結論
研究人員設計了一種基於模型連續動態系統的時域泛化方法,能夠在數據域隨時間逐漸演變的環境中,實現泛化模型的穩定性與可控性,未來還計劃從多個方向進一步拓展這一技術的應用:
1. 生成式模型擴展:時域泛化與生成式模型任務有天然的關聯,Koodos所具備的泛化能力能夠為神經網絡生成技術帶來新的可能。
2. 非時態泛化任務:Koodos的應用並不局限於時域泛化,也可以適用於其他分佈變化的任務中,研究人員計劃探索其在非時態領域的應用。
3. 大模型集成:將探索時域泛化在大模型中的集成,幫助LLM在複雜多變的分佈中保持魯棒性和穩定性。
參考資料:
https://github.com/Zekun-Cai/Koodos/