ICLR 2025超萬篇論文廝殺,錄用率32.08%,首個滿分論文或預定best paper?

剛剛,一年一度的AI頂會ICLR和CVPR開始公佈錄用和審稿結果了!中稿的網民們紛紛曬出了自己的成績單。

同一天,兩大AI頂會同時宣佈—— 

ICLR 2025最新錄用結果正式出爐,與此同時,CVPR 2025審稿結果也公佈了! 

今年,ICLR 2025共接收11,565份投稿,錄用率為32.08%。Oral和Poster的具體結果,會在接下來公佈。 

ICLR是深度學習領域最重要的會議之一,每年舉辦一次。2025年是第13屆,將在新加坡展覽中心(Singapore EXPO)4月24日至4月28日舉行 

具體來說,本次總體錄取率與往年相比,變化不大,甚至比去年有所提升。 

但投稿總數突破1萬達到了11672,比去年多4000+篇。 

根據「Paper Copilot」的統計,評審均分在6.0以上被接受的可能性較大,均分在5.0以下幾乎不會被接受。 

投稿論文主題集中在大語言模型。 

按照第一個關鍵詞計算,排名前10的關鍵詞中有一半都是大模型,包括Large Language Models以及縮寫、大小寫等不同變體。 

此外,強化學習主題在前10中,也佔有兩位。前10關鍵詞中還包括聯邦學習、圖神經網絡和擴展模型。 

ICLR會議雖然專注於人工智能中表徵學習(通常稱為深度學習)領域進展,但接受的論文主題涵蓋了機器視覺、計算生物學、語音識別、文本理解、遊戲和機器人學等重要應用領域。 

本次會議討論的相關主題包括但不限於:無監督、半監督及監督表徵學習、用於規劃和強化學習的表徵學習、用於計算機視覺和自然語言處理的表徵學習、度量學習與核學習等。 

如今隨著錄用結果的正式公佈,網民們也紛紛曬出了自己的成績單。 

網民曬出成績單

南加州大學CS助理教授Yue Wang,與合作者一起,共有8篇論文被錄用。 

英偉達高級研究科學家謝恩澤,更是「投5中5」,成績喜人。 

人大高瓴人工智能學院副教授劉勇也被接受了5篇。研究主要從理論上說明數據合成、預訓練對大模型的影響,並提出了一種高效的大模型微調方法。 

清華大學博士生李凱入選了2篇。 

一篇提出了SonicSim聲音分離模型,通過物理級聲場仿真,不僅複現了聲音在複雜空間中的傳播軌跡(如牆壁反射、多普勒效應),更創新性地支持聲源與馬克風的動態路徑規劃。 

項目地址:https://cslikai.cn/SonicSim/ 項目地址:https://cslikai.cn/SonicSim/ 

第二篇提出百萬參數級語音分離模型TIGER,構建參數僅105萬的輕量架構,其中參數量下降94.3%,計算量下降95.3%。同時分離質量超越TF-GridNet,推理速度提升8.6倍。 

項目鏈接: https://cslikai.cn/TIGER/ 項目鏈接: https://cslikai.cn/TIGER/ 

南洋理工博士後研究員加小俊,作為一作提出了一種更高效的越獄方法——I-GCG。實驗表明,I-GCG能顯著提升原有方法的攻擊性能,並對開源LLM模型實現了接近100%的越獄成功率。 

論文鏈接:https://arxiv.org/pdf/2405.21018 論文鏈接:https://arxiv.org/pdf/2405.21018 

伊利諾伊理工大學博士生康偉泰,在他的一作論文中構建了大規模數據集Intent3D和對應的benchmark,並對多種前沿模型進行了測試。還提出了新方法 IntentNet,實現了最新SOTA性能。 

論文鏈接:https://arxiv.org/pdf/2405.18295 論文鏈接:https://arxiv.org/pdf/2405.18295 

新加坡國立大學本科生Chenhang Cui,也喜提2篇ICLR。 

此外,也有作者感受到了審稿過程中的跌宕起伏: 

即使被拒絕,只要評論中肯、對作者有所幫助,作者也能接受: 

02 首個滿分論文,預定「最佳論文」?

ICLR 2025錄用結果還未公佈之前,網民們就曝出了首個(10,10,10,10)滿分論文。 

據說原始評分為(8,8,10,10),經過rebuttal後,成功創造了滿分! 

簡而言之,作者在訓練過程中引入一致光線(Imposing Consistent Light,簡稱 IC-Light)傳輸,而相關Github項目已有7千多star。 

評審鏈接:https://openreview.net/forum?id=u1cQYxRI1H 評審鏈接:https://openreview.net/forum?id=u1cQYxRI1H 

該方法基於物理原理,支持穩定且可擴展的光照學習,使模型能夠統一處理各種數據源。而且確保模型行為基於物理原理,僅修改圖像的光照,而不改變其他內在屬性。 

此方法,將擴散式光照編輯模型的訓練,擴展到大規模數據集(超過1000萬),涵蓋所有可用數據類型,並使用強大的模型骨幹(例如SDXL和Flux)。此外,還證明了該方法能夠減少不確定性,並有效緩解材質不匹配或反照率改變等偽影問題。 

看一下文中的定性比較結果吧: 

根據曝料,文章作者張呂敏,也是此前轟動一時的ControlNet的作者。 

03 CVPR 2025

同一天,計算機視覺與模式識別頂會CVPR,也公佈了今年的論文評審結果。 

目前,「Paper Copilot」已經根據社區中的分數樣本,做出了一份結果分佈圖。 

根據以往經驗,像是4,3,3、4,3,2,甚至5,4,2這樣的得分,都有不小的機會能被錄用。 

參考資料: 

https://x.com/iclr_conf/status/1882140455825297580 

https://x.com/CVPR/status/1882143261789499575 

本文來自微信公眾號「新智元」,作者:新智元,36氪經授權發佈。