會用AI才能多發論文,LLM助力科研效率提升,新研究登Nature子刊

Nature子刊近日發佈了一項研究,針對學術寫作中大模型的使用。他們發現,那些瞭解LLM以及大模型相關技術的受訪者有更多的發表文章數量。

都說大模型被廣泛應用於學術研究的文獻回顧、摘要篩選和稿件撰寫等方面,然而具體多少人在使用、如何使用,卻缺少定量的調查研究。

為此,研究人員進行了一項調查,識別受訪者們在學術研究和發表中使用大模型的情況。以評估全球研究人員對大模型的認知水平。

論文地址: ht tps://www.nature.com/articles/s41598-024-81370-6論文地址: ht tps://www.nature.com/articles/s41598-024-81370-6

這項調查的參與者包括來自59個國家、65個專業的總計226名醫學相關研究者,他們在2020年至2024年間接受了哈佛醫學院全球臨床學者研究培訓證書計劃的培訓。

研究人員如何使用大模型

在226名調查者中,198人(87.6%)表示之前知道大模型,其中對大模型有「一定程度」和「較深程度」瞭解的比例分別是33.3%和30.8%。

值得注意的是:相比不知道大模型的受訪者,知道大模型的人發表的論文數更多,這一發現與先前的研究結果一致。

去年4月,史丹福大學等機構發表的一篇論文稱,對大模型的熟悉程度和使用,與學術作者在預印本和出版物上的產出率上存在正相關,這可能是緣於大模型領域研究的快節奏迭代,以及使用大模型進行寫作輔助的原因。

論文地址:https://arxiv.org/abs/2404.01268v1論文地址:https://arxiv.org/abs/2404.01268v1

在這些知曉大模型的受訪者中,之前使用過大模型的只有18.7%,他們主要用大模型來糾正語法和格式錯誤(64.9%),第二高頻的使用方式是寫作(45.9%),最後是修訂和編輯(45.9%)。

該研究中81.3%的受訪者表示,他們從未在研究項目或論文中使用大模型,有趣的是,這與去年9月發表的一篇論文的結論並不一致。

論文地址:https://www.europeanurology.com/article/S0302-2838(23)03211-6/abstract

這篇較早的論文發現,近一半的受訪者表示在學術實踐中使用過LLM。

儘管大模型在學術寫作的各個環節中被頻繁使用,但相當比例的受訪者(約 40%)並不承認他們在出版物中使用過它。

研究人員隱瞞AI工具使用情況的原因有很多。首先,是研究人員對工具背後的技術缺乏信息或理解,其次,人們對使用AI工具依然抱有懷疑或負面的態度。出版商也可能會要求作者提交或包含一份聲明,說明他們是否在寫作中使用了AI系統。

對大模型未來影響的預期

除了當前大模型的使用,這項調查還考察了受訪者如何看待大模型未來對各研究階段的影響。如下圖所示,從左到右按照學術研究的各階段,從觀點產生到文獻回顧,方法學涉及,數據分析,寫作,選擇期刊,修訂和編輯,校正語法錯誤,設置參考文獻。

預期學術研究各階段受到大模型影響的比例預期學術研究各階段受到大模型影響的比例

大多數(52%)受訪者認為大模型將產生重大的整體影響;分階段來看,有最多受訪者認為將受到重大影響的語法錯誤和格式(66.3%),其次是修訂&編輯(57.2%)和寫作(57.2%)。

這些結果表明,在研究人員看來,大模型可以極大地提高上手速任務的效率和準確性,從而促進更快、更高品質的學術產出。

與之相對的是,有一些階段是被認為不受影響,或僅受到有限程序影響的,包括方法論(74.3%)、期刊選擇(73.3%)和研究觀點(71.1%),這反映了人們在對AI在批判性評估、研究設計和期刊選擇上的擔憂和質疑。

當談及大模型對學術界會帶來正面或負面影響時,大多數受訪者認為它將帶來積極影響(50.8%),但相當一部分人表示不確定(32.6%)。

儘管大多數受訪者認為期刊應允許在出版中使用AI工具(58.1%),但絕大多數(78.3%)也認為應製定相應的規定,例如修改期刊政策、增加檢測大模型使用的工具,以確保 AI 工具在科研中的有序使用。

圖2:受訪者認為大模型在未來的主要挑戰和應用範圍圖2:受訪者認為大模型在未來的主要挑戰和應用範圍

具體來看,如圖2所示:28%的受訪者表示,大模型是論文發表過程中的有用工具,尤其是在系統地組織和撰寫文本上。

此外,大約四分之一的受訪者表示,使用大模型後,研究人員能夠在文獻綜述、數據分析、稿件準備等研究項目的不同階段中節省更多時間。

同時,這項調查還揭示了受訪者在學術研究中使用大模型時遇到的擔憂和挑戰:14%的受訪者表示對大模型存在不確定感或缺乏經驗,還有8%的人存在道德擔憂,包括潛在的歧視、隱私泄露和剽竊問題。

這表明,儘管大多數受訪者支持在學術論文中使用AI工具,但他們也不約而同地強調加強實施監管措施的必要性。

有趣的是,對於AI倫理,經驗水平不同的研究人員之間存在差異。相比經驗較少的參與者,擁有10年以上研究經驗的參與者更有可能對AI工具有積極態度,並支持在監管條件下使用。

儘管這項調查近關注了醫學相關的研究,也缺少多次采樣從而獲得可能的因果關聯,但該研究的幾個發現卻值得關注。

首先是學術研究中對大模型的使用,目前還只在「嚐鮮」的階段,隨著智能體的成熟,大模型的應用將超越語法修改,文獻總結等方面,慢慢影響到更有批判性和創造性的研究階段。

其次是該研究中發現大模型的應用為研究人員節省了時間,但這些節省下的時間,能否抵消掉多出來的用於檢查LLM文本真實性的時間?

參考資料:

https://www.nature.com/articles/s41598-024-81370-6

本文來自微信公眾號「新智元」,作者:peter東 祖楊,36氪經授權發佈。