一年一度Google學術指標公佈:CVPR 世界第二僅次 Nature!

轉自 | 新智元

編輯 | 桃子 好睏

【導讀】一年一度Google學術指標公佈了!Nature年年霸榜,而今年與以往不同的是,國際學術頂會的排名大幅提升,CVPR位居第二,超越Science僅次於Nature。另外,TOP 20中,共有五大頂會入選,被引最高論文與大模型時代下前沿技術,一脈相承。

Google2024學術指標,剛剛出爐了!

最新排名是針對2019-2023年之間發表的文章的統計,還包含了截至2024年7月在Google Scholar中被引的所有文章數。

今年,依據h5-index,排在前十的期刊/國際頂級學術會議中,Nature已經連續霸榜多年。

除了Nature,還有新英格蘭醫學雜誌、Science、自然通訊、柳葉刀、Advanced Materials、細胞國際期刊進入前十。

此外,CVPR、NeurIPS、ICLR三大頂會躋身TOP 10,分別位列第二、第七和第十。

2023學術指標中,CVPR位列第四,NeurIPS位列第九。ICLR排名不變。

網民們紛紛驚歎道,「CVPR已經攀升至第二,僅次Nature」!

「看到CVPR比Science有更大一個影響力,和Nature相差不遠,簡直太瘋狂了」。

CVPR、NeurIPS頂會排名躍升如此之高,說明了什麼問題?

加拿大滑鐵盧大學計算機教授Gautam Kamath稱,要麼是很多人引用了這些頂會中的論文,要麼是很多人在頂會中發表了論文。也就是說,這一現象主要反映了該研究領域的增長。

AI五大頂會衝進TOP 20

除了開頭我們提到了三個頂會位列前十,在總榜前20名中,還有ICCV、ICML兩個機器學習/計算機視覺頂會入選。

其中,ICCV位列第13,ICML位列第17。

接下來,一起分別看看這5大頂會,近5年來(2019-2023年)被引最高的文章。

CVPR:StyleGAN、LDM

首先來看CVPR,h5-index為440,h5-median為689。

在前20篇高被引的論文中,優秀的產出成果分別聚集在2019年、2020年、2022年中,分散在2021年、2023年的論文只有零星幾篇。

這裏,有幾篇極具代表性,每個人或多或少熟知的作品:

由何凱明、謝賽寧等人聯手在2020年提出的動量對比(MoCo)算法被引最高,達11878次。這是一種構建大型且一致的詞典的方法,用於無監督學習。

還有英偉達團隊提出的StyleGAN算法,讓AI可以生成無數個細節豐富、逼真的人臉,很難看出偽造的痕跡。

Runway的AI影片模型從Gen-1到Gen-3 Alpha完成多次進化,離不開的是「潛在擴散模型」(LDM)。

還有謝賽寧帶領團隊發表的A ConvNet for the 2020s,帶來全新純卷積模型ConvNeXt,性能反超Swin Transformer,直接在CV圈里掀起了模型架構之爭。

2023年有一篇YOLOv7的論文進入TOP 20,現在這一算法已經改進到了YOLOv10(清華團隊)。

NeurIPS:GPT-3、CoT、RAG

在NeurIPS中,h5-index為337,h5-median為614。

在前20篇高被引的論文中,優秀的產出成果分別聚集在2019-2022年之間。

被引最高的論文是PyTorch開山之作,被引數為43887,可見其影響力之深遠。

其次,被引第二高的是由前OpenAI科學家Ilya Sutskever帶隊的研究——大名鼎鼎的GPT-3背後之作,成為業界拜讀之筆。

其他著名的研究還包括:

Google大腦一作Jason Wei和團隊提出「思維鏈」(CoT)算法,已經成為當今大模型彌補幻覺問題的一種重要的手段。

還有OpenAI團隊提出的使用類別引導圖像生成擴散模型,首次擊敗了GAN。

另有Meta(Facebook)團隊在2020年在如下論文中,首次提出了如今大模型用到的一項技術的概念——檢索增強生成(RAG)。

ICLR:LoRA、ViT

在ICLR中,h5-index為304,h5-median為584。

在前20篇高被引的論文中,優秀的產出成果分別聚集在2019-2022年之間,2021年比例偏少一些。

其中的經典之作,包括微軟團隊提出的大模型時代爆火技術之一——LoRA。這是一種降低模型可訓練參數,又儘量不損失模型表現的大模型微調方法。

如下這篇論文成為Transfomer在CV領域的里程碑之作,引爆了後續的相關研究。

Google大腦團隊提出了Vision Transformer(ViT)全新架構,不用卷積神經網絡(CNN),可以直接用Transformer對圖像進行分類,性能趕超CNN。

史丹福團隊提出的「去噪擴散隱式模型」(DDIM),大幅減少采樣的步驟,極大的提高了圖像生成的效率。

ICCV:Swin Transformer、SAM

在ICLR中,h5-index為291,h5-median為484。

在前20篇高被引的論文中,優秀的產出成果主要聚集在2019年、2021年。

其中,有大家熟知的:

全華人團隊提出的Swin Transformer,是Transformer模型在視覺領域的又一次碰撞。它在物體檢測和語義分割任務中大幅刷新了此前的紀錄,並被廣泛應用於眾多視覺任務中。

Meta團隊提出的「分割一切」(SAM)模型,讓學術圈直呼CV不存在了。

ICML:DALL·E、GLIDE、BLIP

在ICML中,h5-index為268,h5-median為424。

在前20篇高被引的論文中,優秀的產出成果分散在2019-2023年之間。

在GAN之後,Ian Goodfellow團隊又提出了「自注意力生成對抗網絡」(SAGAN),在GAN的基礎上引入了自注意力機制,改進了圖像生成的質量和多樣性。

OpenAI DALL·E背後經典之作,便是如下這篇了。

另一篇同由OpenAI團隊提出的的文本生成圖像模型GLIDE,僅用35億參數,就能媲美初代DALL·E的性能。

此外,還有雙語視覺語言模型BLIP、BLIP-2。

從以上五大頂會的趨勢研究中,看得出當前GenAI、大模型的爆發,與近年來的研究一脈相承。

另外,對於其他領域感興趣的讀者,可以進入Google Scholar主頁自行查閱。

傳送門:https://scholar.google.com/citations?view_op=top_venues

最權威學術指標,也陷爭議

每年,Google Scholar都會更新一次學術指標,並列出位列前100名的出版物。

它總結了許多出版物最近的引用情況,可以幫助業界研究者們參考那裡發表最新的研究成果。

這些出版物按照5年h-index、h-median,這兩個指標去排序。

若想具體查看,排名中某出版物中哪些文章被引數最多,以及誰引用了這些文章,直接單擊h-index,便可查看。

總榜,是不分類榜單。針對不同領域,比如工程&計算機視覺、物理&數學、化學&材料科學等,都有各自榜單排名。

有網民發出質疑:如果不考慮「頂會規模」這一「強相關」的因素,這怎麼可能成為一個有意義的評價頂會的標準呢?

對此,Gautam Kamath稱,是的這就是Google正在衡量的因素。我覺得這裏有一個更好的衡量「影響力」的方法——只計算來自本領域外的引用(類似於排除「自引」)。

另有網民粗略計算了下,14個頂會中,僅有4個不收取出版費用。當然,雖然沒有出版費用,但參加會議仍有其他相關費用,而且根據提交論文的數量等因素而變化。

TOP 100名單

今年Google學術指標中,所有TOP 100名單如下:

上下滑動查看

參考資料:

https://scholar.googleblog.com/2024/07/2024-scholar-metrics-released.html