6 年 OpenAI 高管揭秘:我為什麼離開 OpenAI 及這個公司現在怎樣了?
作者 | Miles Brundage
譯者 | 平川
策劃 | 褚杏娟
前 OpenAI 研究員 Miles Brundage,從 2018 年到 2024 年在 OpenAI 工作,先是擔任政策團隊的研究科學家,然後擔任政策研究主管,最後擔任 AGI Readiness 高級顧問。近期,Miles Brundage 已經從 OpenAI 離職。在加入 OpenAI 之前,Brundage 在 2016 年至 2018 年擔任牛津大學人類未來研究所的研究員,他也是新美國安全中心人工智能工作組的成員。從 2018 年到 2022 年,Brundage 擔任 Axon 人工智能和警務技術倫理委員會成員。
從 OpenAI 離職後,Brundage 寫下了這篇長文,記錄了他在 OpenAI 的心路歷程以及對人工智能的一些思考。我們進行了翻譯以饗讀者。
其實,大約 12 年前,我就已經決定畢生從事與 OpenAI 的使命相類似的工作。因此,離開我夢寐以求的工作並不是一個容易的決定,我相信不少人會問為什麼。在本文中,我回答了幾個相關的問題,希望為大家提供一些更準確的信息。
自 2015 年 12 月 OpenAI 宣佈成立以來,我一直對它充滿期待。那天,我徹夜未眠,寫下了自己對於其重要意義的思考。其實,大約 12 年前,我就已經決定畢生從事與 OpenAI 的使命(使 AGI 造福全人類)相類似的工作。
因此,離開我夢寐以求的工作——為 OpenAI 高管及董事會就 AGI 的就緒狀態提供建議——並不是一個容易的決定,我相信不少人會問為什麼。我在下文中回答了幾個這樣的問題,希望大家在討論關於我離職的原因及其他各種相關的話題時有一些更準確的信息。
本文要點:
-
我希望花更多的時間來研究整個人工智能行業的問題,有更多的出版自由,更加獨立;
-
我將創辦一家非營利組織並或加入一家現有的非營利組織,專注於人工智能政策的研究和宣傳,因為我認為,只有大家齊心協力,才能儘可能地保證人工智能安全有益;
-
我感興趣的一些研究領域包括:人工智能進展評估 / 預測、前沿人工智能的安全和保安監管、人工智能對經濟的影響、加速發展對人有益的人工智能應用、計算治理以及總體的 「人工智能大戰略」;
-
我認為,OpenAI 仍然是一個令人興奮的地方,在那裡有很多事可以做,很高興看到 OpenAI 的團隊繼續在安全文化和流程方面加大投資;
為什麼離開
你是誰?你之前在 OpenAI 做什麼?
10 月 25 日下班之前,我都還是 OpenAI 的一名研究員兼部門經理。我在這裏已經工作了六年多,按照 OpenAI 的標準,這個時間已經相當長了(在這六年里,OpenAI 有了很大的發展!)。最初,我是政策團隊的一名研究科學家,後來成了政策研究主管。目前,我是 AGI Readiness 高級顧問。而在此之前,我一直從事學術相關的工作。在亞利桑那州立大學科學技術專業獲得了人文與社會維度博士學位後,我在牛津大學從事博士後研究,之後還在美國能源部的政府部門工作過一段時間。
在我看來,我所領導的團隊(政策研究和後來的 AGI Readiness)做了很多非常重要的工作,形成了 OpenAI 的部署實踐,例如,啟動了我們的外部紅隊計劃,推動了最初的幾個 OpenAI 系統卡片,並就語言模型和人工智能代理的社會影響、前沿人工智能監管、計算治理等主題發表了很多有影響力的內容。
我非常感謝在 OpenAI 工作的這段時間,感謝管理層多年來對我的信任,讓我承擔越來越大的責任;感謝我有幸管理過的數十名員工,從他們身上我學到了很多東西;感謝在不同團隊中與我共事過的無數優秀的同事,是他們讓我在 OpenAI 的工作成為一段如此迷人而有益的經歷。
為什麼你要離開?
我下定決心,要從行業外部而不是內部來影響人工智能的發展。下面是我主要考慮的幾個因素:
-
機會成本變得非常高:我沒有時間去研究各種我認為重要的研究課題。而且我認為,在某些情況下,我在行業外研究這些課題會更有影響力。OpenAI 現在備受矚目,其成果會受到很多不同角度的審查,以至於我很難就我認為重要的所有課題發表觀點。說實話,我並不是一直都讚同 OpenAI 在出版審查方面的立場,我也確實認為,在行業內存在一些出版限制是合理的(而且我還參與了 OpenAI 政策的多次迭代),但對我來說,這些限制已經太多了。
-
我想減少偏見:如果你是某個組織的一員,每天都與該組織的人員密切合作,那麼你就很難對該組織保持公正。而且,考慮到經濟利益衝突,人們有理由質疑來自行業的政策想法。雖然我儘量在分析中做到不偏不倚,但我相信這其中肯定會有一些偏見,而且在 OpenAI 工作肯定會影響人們對我以及其他業界人士發言的看法。我認為,在政策對話中擁有更多獨立於行業的聲音至關重要,而我計劃成為其中的一員。
-
我已經完成了我在 OpenAI 所要做的大部分工作:自從擔任 AGI Readiness 高級顧問以來,我開始更明確地思考兩種 AGI 就緒問題——OpenAI 管理日益強大的人工智能的能力的就緒狀態,以及世界有效管理這些能力的就緒狀態(包括監管 OpenAI 和其他公司)。對於前者,我已經向高管和董事會(我向他們提建議)介紹了相當多我認為 OpenAI 需要做的事情以及存在的差距,而對於後者,我認為我可以在 OpenAI 之外發揮更大的作用。
很難說以上哪一條最重要,它們之間有著千絲萬縷的聯繫。我做出這樣的決定,上面每一條都起了一定的作用。
OpenAI 和這個世界的 AGI 就緒狀態怎麼樣?
簡單來說,不管是 OpenAI 還是其他前沿實驗室都沒有做好準備,這個世界也沒有。
說實話,在 OpenAI 的領導層中,我認為這個說法不存在爭議。需要注意的是,這與企業和這個世界是否「在相關的時間做好了準備」是兩個不同的問題(我認為距離準備就緒還有很大的差距,以至於我將在職業生涯的賸餘時間里從事人工智能政策方面的工作)。
企業和這個世界是否已經做好 AGI 準備,取決於安全和保安文化如何隨著時間的推移而發展(最近 董事會成員的 增加 就是朝著正確的方向邁進了一步)、監管如何影響組織激勵機制、有關人工智能能力和安全難題的各種事實如何演變,以及其他的各種因素。
順便提一句,我認為 AGI 被賦予了太多的含義,它暗含著一種二元思維方式,而非其實際的意義。最近,我的團隊一直在做的一件事是,完善 這裏提到的「人工智能層次」框架。希望不久之後,OpenAI 和我能發表一篇相關的論文。但現在,我只想指出,當我說「做好 AGI 準備」時,我指的是「為安全、可靠、有益地開發、部署和管理能力日益增強的人工智能系統做好了準備 」。
人們應該為 OpenAI 工作嗎?
在 OpenAI 工作是大多數人都希望做的最具影響力的事情之一。因此,在大多數情況下,答案是肯定的。當然,人們有不同的技能和機會,也很難一概而論。但我認為,OpenAI 的每一個角色、每一份工作都很重要,對 OpenAI 組織文化的貢獻也很重要。在提升人工智能能力的道路上,每一項產品部署都會影響規範、人們對人工智能的看法以及監管方式等。很遺憾,我失去了一些在這裏產生影響的機會,但我希望能通過在更大程度上影響更大的生態系統來彌補。
在 OpenAI,從事安全、保安方面的工作,確保我們能從正在構建的技術中廣泛受益,或者從事人工智能能力研究和產品方面的工作,利用自己的影響力推動事情朝著更安全、更有保障、讓更多人受益的方向發展,我認為,這些工作會產生特別大的影響。任何在 OpenAI 工作的人都應該認真對待這樣一個事實,即他們的行為和言論會對組織文化產生影響,並可能在組織開始管理極其先進的能力時產生積極或消極的路徑依賴。對任何組織而言,文化都很重要,但在前沿人工智能領域,文化尤為重要,因為大部分決策都 不是 由法規 決定的,而是由公司員工 決定的。
正如我在上文提到的,也是我做出離職決定的原因,我認為,某些類型的政策研究最好由外部人員來完成。這種情況可能更多地出現在政策研究中,如安全和保安工作中,雖然 OpenAI 內部確實需要有一些人來推動良好的政策立場,但獨立的安全和保安研究也很有價值。
AGI Readiness 團隊現在怎麼樣了?
直到最近,Economic Research 團隊一直是 AGI Readiness 團隊中由 Pamela Mishkin 領導的一個子團隊。現在,該團隊將由 OpenAI 新任首席經濟學家 Ronnie Chatterji 領導。AGI Readiness 團隊的其餘人員將被分配到其他團隊。我正在與 Josh Achiam 密切合作,將一些項目移交給他正在組建的 Mission Alignment 團隊。
你接下來會做什麼?
我計劃創辦一家新的非營利組織(和 / 或加入一家現有的非營利組織),從事人工智能政策研究和宣傳工作。我可能會把研究和宣傳結合起來,但具體細節和工作比重還未確定。在接下來的幾個月裡,我將與潛在的聯合創始人和合作者進行交流,然後就可以明確了。我的興趣是面向全球的,但我可能會把重點放在我比較熟悉的國家(如美國)、可能會產生重大影響的政策開端(如歐盟人工智能法案的早期實施)以及各種多邊努力(我認為這將越來越重要)上。
如何看待 AI 發展
你對 AI 政策有什麼看法?
我認為,人工智能的好處614547_EN.pdf) 已經很大,而且可能會越來越大,但壞處也是如此。我在這一領域工作的時間比大多數人都長。很遺憾,我看到,對於成本和效益賬或者不同風險的優先級等問題,人們的觀點兩極分化日益嚴重。我的觀點是,有很多事情值得擔憂,也有很多事情讓人興奮,我們不必非要選擇一件事情來關心,我們應該找出它們的共性之處。
我認為,人工智能和 AGI 並不能自動造福全人類,需要政府、非營利組織、民間和產業界的決策者做出深思熟慮的選擇,而這需要公眾的熱烈討論才能變得清晰。值得注意的是,這不僅有利於降低風險,也有利於確保利益的公平分配,就像電力和現代醫學領域那樣。造成這種情況的原因有很多,涉及集體行動問題、各種無標價的負外部性、數字基礎設施使用權的起點不對等、財富不均等等。預設情況下,這些都會影響誰成為受益者或受害者以及到何種程度。與鐵路、電力等一樣,企業和政府的政策對於確保結果的安全和公平至關重要。
我認為,人工智能的能力正在迅速提高,政策製定者需要更快地採取行動。這是我最期待獨立開展工作的領域之一,因為來自行業的相關說法往往會被視為炒作。雖然離開這個行業後,我就無法獲得一些最前沿的信息了,但我認為,公共領域也有大量的信息可以證明這種緊迫性是合理的。而且,對於如何比現在更有效地整合信息,我有一些想法。幾年前,我曾向有效利他主義者(他們對某些人工智能能力需要多長時間才能變成現實的存在相當感興趣)提出,不一定需要預測才能讓他們善用自己的時間。許多應該採取的政策行動有很大的獨立性,與確切的時間表無關。不過,我後來改變了想法,我認為大多數的政策製定者都不會採取行動,除非他們認為情況非常緊急,而如果情況確實如此或將來可能如此,就需要有讓人信服的理由說明為什麼情況會如此。參見:COVID 以及在此之前關於大流行防備的許多警告。
我認為,對人工智能能力及其推斷進行定量評估,並結合對某些政策影響的分析,對於真實而有說服力地展示這種緊迫性至關重要。在從安全角度衡量前沿模型、衡量人工智能的長期趨勢以及評估人工智能對勞動力市場的影響方面,已經有大量的工作在開展,但肯定還有更多工作的要做。
我認為,對人工智能能力及其推斷進行定量評估,並結合對某些政策影響的分析,對於真實而有說服力地展示這種緊迫性至關重要。在從安全角度衡量前沿模型、度量人工智能的長期趨勢以及評估人工智能對勞動力市場的影響方面,人們已經做了大量的工作,但肯定還有更多的工作要做。
我認為,我們並不掌握我們所需要的所有人工智能政策理念,而且許多流行的理念都很糟糕或過於含糊,讓人無法對其作出有把握的判斷。在人工智能的國際競爭方面尤其如此,我認為現有的建議尤其糟糕(如 「盡快與 [競爭國] 競賽」)和含糊(如 「CERN for AI」)。不過令人鼓舞的是,我們看到,對於其中的一些想法,人們正趨向於進行更細緻的討論。對於前沿人工智能的安全和保安,還有許多方面需要創造性的解決方案。
另一方面,我認為我們確實有一些我們需要的理念,並應在其中一些領域迅速採取行動。這就是為什麼我不想僅僅局限於研究——在某些情況下,我們缺少的只是意識或政治意願。例如,國會應大力資助美國人工智能安全研究所,這樣政府就有更強的能力來清晰地思考人工智能政策。同時,他們還應資助工業與安全局,這樣政府中就會有人對先進的人工智能芯片出口後的情況有所瞭解。
重點關注的 6 個方向
我相信,如果我有時間對我過去六年所做的工作進行更多的思考,那麼我的觀點可能會有所改變。但目前,我對以下六個相互關聯的主題特別感興趣。我並不打算在這裏詳盡無遺地列出所有的重要問題。而且,隨著時間的推移,我可能會關注到更多的問題(例如,在未來幾個月的探索期之後,只深入研究其中的一兩個問題)。
AI 發展的評價與預測
該主題是清晰思考下文其他主題的基礎之一。如上所述,在這方面,人們已經做了一些很棒的工作,但動機(包括商業和學術動機)不同,它被以各種方式扭曲了。我認為,在這一主題上,非營利部門可以做更多的工作。
與此同時,我也意識到,在人工智能評估和預測方面,我們最終可能會非常嚴格,但政策行動仍然相對緩慢。因此,除了與人們開展合作,以便更好地瞭解人工智能的進展之外,我還希望以一種能夠引起共鳴的方式幫助人們更好地宣傳人工智能的發展速度。我有一種強烈的感覺,覺得人工智能 在工業界更容易實現,但我不知道這究竟是為什麼,因為實際上,實驗室中存在的能力與公眾可以使用的能力之間並沒有很大的差距。我有一些有興趣進行進一步探索的假設。我想通過歷史案例瞭解為什麼有些政策問題被視為緊急問題,而有些則不被視為緊急問題,例如 COVID 和大流行的一般政策、第二次世界大戰和希特勒的崛起、氣候變化等。
前沿 AI 安全與保安監管
我認為,考慮到很快(最多在未來幾年)就會有不少公司(數十家)擁有能夠帶來災難性風險的系統,從安全和保安方面改善前沿人工智能已迫在眉睫。鑒於沒有時間建立全新的機構,我對在現有法律授權下採取行動的機會,以及已獲批準的法規(如歐盟人工智能法案)的實施尤為感興趣。
如上所述,這篇文章和一些類似的工作作了更詳細的解釋。在預設情況下,對於人工智能的安全和保安,企業和政府不一定會給予應有的關注(這並不是專門針對 OpenAI 的評論,上文也不是)。造成這種情況的原因有很多,其中之一是私人利益與社會利益之間的錯位,而監管可以幫助緩解這種錯位。此外,在安全等級的可信承諾與驗證方面也存在一些困難,這進一步助長了投機行為:人們認定其他人會通過偷工減料的方式來獲取優勢,而自己卻無法判斷實際情況是什麼,或者認為自己以後會改變主意。偷工減料在多個領域都時有發生,包括預防帶有偏見與幻覺的有害輸出,以及對可能出現的災難性風險進行預防性投資。顯然,在某些方面,商業激勵機制可以推動安全性的提升,但我認為,想當然地認為這些激勵機制已經足夠是不負責任的,尤其是當安全風險不明確、新穎、分散和 / 或屬於低概率 / 高風險時。
我很想知道,企業該如何保護他們寶貴且可能被濫用的知識產權,同時又用一種可信的方式證明其安全性。既要不泄露敏感信息,又要證明其合規性,這是軍備控制協議的一大障礙,需要通過創新來解決。這個問題也是有效進行國內監管的核心。我很願意與研究這個問題及其他相關 AI 治理技術問題的人進行合作。
雖然有些人認為,民主國家與專製國家競爭才是應對全球人工智能形勢的正確方法,但我認為,擁有並助長這種零和心態可能會增加安全和保安方面的投機風險以及其他非常糟糕的結果。我希望看到的是,學術界、企業、公民社會和政策製定者通力合作,找到一種方法來證明西方的 AI 發展不會對其他國家的安全或政權穩定構成威脅。這樣我們就能開展跨界合作,解決未來非常棘手的安全和保安挑戰。
即使西方國家在人工智能方面繼續大幅超越東方大國,我認為這種可能性非常大,但專製國家擁有的計算硬件和算法進步也足以讓他們建立起非常先進的能力,因此,合作至關重要。我知道很多人認為這聽起來很天真,但我認為他們並沒有充分考慮形勢的發展,也沒有考慮到國際合作(通過賽前分析性、對話和創新來實現)對於管理災難性風險是多麼重要。
AI 的經濟影響
我認為,在未來幾年(而不是幾十年),人工智能很可能會帶來足夠的經濟增長,使人們可以輕鬆地提前退休,過上高標準的生活(假設有適當的政策來確保公平分配這些財富)。在此之前,可能會有一段時期,那些可以遠程完成的任務更容易實現自動化。短期內,我非常擔心人工智能會困擾那些迫切需要工作機會的人,但我同時認為,人類最終應該免除為生活而工作的義務,而這也是構建人工智能和 AGI 最有力的論據之一。從長遠來看,有些人可能會繼續工作,但動力可能會比以前弱(是否如此取決於各種文化和政策因素)。在政治、文化等方面,我們還沒有做好準備,這需要成為政策對話的一部分。天真冒失地轉向 「後工作世界 」有可能導致文明停滯(參見《瓦力》),我們需要對此進行更多的思考和討論。
人工智能對稅收政策的影響進也需要進行創新性的分析。例如,有人建議徵收 「機器人稅」,但這究竟會產生什麼影響?它與計算稅或人工智能增值稅等相比有何不同?我們是不是不應該做任何專門針對人工智能的事情,而只需要認識到,人工智能會讓其他類型的稅收變得更加緊迫(例如,如果資本和勞動力的回報出現巨大差異)?
加速發展對人有益的人工智能應用
雖然人工智能會帶來一些好處,而且這些好處正在 「自動 」出現(通過許多人的辛勤工作),不需要太多的政府參與或支持,但我認為還不夠。在工業界的人們看來,那顯然遠未達到理想的狀態,而有限的人工智能知識和資源又嚴重阻礙了人工智能的全面普及。
我認為,即使對(幾乎)只專注於降低人工智能風險的人來說,認真考慮人工智能的有益應用也是有意義的,因為它們可能會改變不同競爭方對共同利益的看法,從而減少投機的可能性。而且,在降低風險方面,有益的應用也可能提供更大的容錯空間(例如,通過使社會對更高水平的人工智能部署或濫用具有彈性)。
預設情況下,免費和付費 AI 功能之間的差距也可能越來越大。有很短的一段時間,這兩種模式完全相同(除了速度限制),那時 4o 是最好的付費模型,而用戶也可以免費使用。但那個時代已經過去,很快就會成為遙遠的記憶,因為企業競相為那些願意支付更高價格的人提供測試 時間計算 服務。我並不是說不應該有這樣的差異,而是說我們應該考慮一下什麼程度是合適的,以及我們是否糊裡糊塗地進入了一個認知貧富差距巨大的世界。
在我看來,「利用人工智能造福人類 」的初衷是好的,但目前卻效率低下,這主要是由於民間社會和政府缺乏足夠的專業技術知識,並且缺乏良好的規範和理論基礎。例如下面這些問題,我們應該進行更多的分析:哪些問題我們應該期望通過市場來解決,哪些問題不應該;什麼時候應該針對特定的問題量身打造狹義的人工智能解決方案,什麼時候應該提高通用人工智能系統處理這些問題的能力;什麼時候適合資助已有的技術,什麼時候適合創造全新的技術,等等。
當然,也有一些令人興奮的 新想法和新框架 正在浮出水面,但我們也希望看到,人們圍繞這些更大的問題展開更多的辯論(除了為推廣特定的有益的應用程序而採取的一次性舉措之外)。我們還希望看到,「利用人工智能造福人類「社群、更多以理論為導向的群體(他們正在思考 風險敏感型創新、「d/acc」和社會對人工智能影響的 適應力 等主題,不同團體之間已經有一些交流,但還不夠)以及那些致力於縮小數字鴻溝的人們,他們相互之間進行更多的交流。
計算治理
與軟件、數據和人才相比,計算硬件具有獨特的屬性,這使其成為人工智能政策的一個重要關注點:「它是可檢測的、具有排他性的、可量化的,而且是通過高度集中的供應鏈生產出來的”(引自我參與撰寫的這篇論文)。令人擔憂的是,對於這些運往海外的計算硬件,政府中負責監督的部門人員配備、資金都嚴重不足。而且,從更廣泛的意義上講,對於最終應該怎麼樣,他們幾乎沒有進行過認真的政策討論(除了偶爾收緊出口管製、要求公司報告其大型數據中心和訓練運行情況之外)。
學術文獻中對計算治理的認真分析通常落後於行業發展相當長的時間。例如,對於那些前沿人工智能公司而言,近年來越來越明確的是,擴大推理規模而不僅僅是訓練規模,可以實現更高的性能,但對其政策影響的公開分析只是最近才真的開始。有關更廣泛地分配計算能力(以及人工智能帶來的益處)的想法,例如通過政府為學術界提供更高的計算能力,通常都太少又太遲,而且忽視了發展中國家特有的問題,他們的情況則完全不同。
幸運的是,還有許多令人興奮的研究問題值得進一步探索,包括上文提到的論文中簡單提及的一些政策理念,以及最近發表的論文人工智能技術治理和基於硬件的人工智能治理。但我認為,這方面可能還有更多令人興奮的想法有待探索,包括關於如何解決下文中將要探討的人工智能政策中的關鍵權衡取捨問題的想法。
總體的「AI 大戰路」
我們需要就人類如何確保人工智能和 AGI 造福全人類展開更多全局性的討論。如上所述,我不認為當前已有的方案非常有說服力,而且許多方案都過於模糊,無法進行實際的評估。與逐步建立起 「人工智能大戰略 」相比,明確研究 「人工智能大戰略 」的工作可能會顯得空洞無物,但我想至少先評估一下現狀,然後再確定怎麼做。
下面是關於人工智能大戰略的一些問題舉例:
-
我們如何平衡分散式人工智能開發的好處(如降低有害的權力集中的可能性)與壞處(如減少了為每個人工智能開發 「單元 」配備的安全和保安人才的數量)?
-
在一個有可能達成人工智能條約或大協議的世界里,或者在一個不可能達成條約或大協議的世界里,企業和國家應該採取什麼樣的政策行動?同樣,國會應採取或不採取哪些行動?
-
從人工智能研究的國有化或國際化到如今的自由放任,有哪些值得考慮的方案?
-
除了 「e/acc vs. Pause AI 」之外,關於人工智能理想發展速度的嚴肅對話應該是什麼樣的?這種對話既要考慮到持續發展的實際風險和真正好處,同時還要考慮到現有的實際政策選擇。
-
在能源和氣候政策等領域,有一些(有爭議的)量化框架可以將影響的總體情況提煉為一個單一的數字,例如碳的社會成本,然後可以為淨效益分析提供信息。人工智能是否也可以有類似的框架(如 「矽的社會成本」)?
我認為,人工智能大戰略與上文討論的其他主題之間存在著令人興奮的交集。例如,在大規模運用計算(用於訓練和 / 或推理)的環境中採用安全性可驗證的、硬件實現的多邊否決權,讓我們既可以從規模經濟中獲益,又能分散權力,可謂兩全其美。我們需要一個令人興奮的上層願景來支持針對此類方法的技術研究,我們也需要一個更好的方法清單來幫助我們評估哪些上層願景是可行的。
說白了,這些研究興趣並不完全是新的:在我加入 OpenAI 之前及在 OpenAI 工作期間, 我一直在發表關於所有這些主題的文章,有些是獨立的論文,也有許多是系統卡片和 OpenAI 博文。其中一些主要體現了 OpenAI 的興趣所在,例如這裏。但我認為,我將從特定的角度來看待這些問題,並以最快的速度分享我的研究成果,那將與業界的看法有很大的不同。
原文鏈接:
https://milesbrundage.substack.com/p/why-im-leaving-openai-and-what-im
聲明:本文為 InfoQ 翻譯,未經許可禁止轉載。
會議推薦