OpenAI又一位高級員工出走
出品|虎嗅科技組
作者|孫曉晨
編輯|苗正卿
頭圖|視覺中國
近日,OpenAI資深員工Miles Brundage宣佈從OpenAI離職,並稱專注於AI安全研究的「AGI Readiness」團隊將被解散,其餘成員將被分配於其他團隊。
作為「AGI Readiness」團隊的高級顧問,Miles Brundage離開OpenAI難免引起對AI安全的關注,他在 Substack的一篇帖子中表示,短時間內,在迎接通用人工智能(AGI)方面,包括OpenAI在內的眾多人工智能實驗室並未做好準備,世界也未做好準備。
為什麼從OpenAI離職,Miles Brundag表示自己更希望從外部影響人工智能的發展。
Miles Brundag認為,自己留在OpenAI不得不面對更高的機會成本,這將不利於他從事更為重要的課題研究。儘管Miles Brundag認為人工智能行業的發表限制具有合理性,但是過多的限制其實不利於自己對重要話題的發表與討論,而OpenAI則面臨著多方面的審查。
Miles Brundag希望可以減少偏見,而存在獨立於行業的聲音對此極為重要。他強調自己已經完成了大部分打算在OpenAI完成的事情,而關於世界對人工智能的管理方面,他認為自己在外部會有更有效的貢獻。
針對人工智能相關政策製定,Miles Brundag認為人工智能造福全人類需要政府、非營利組織、民間社團和行業的決策者作出深思熟慮的選擇,這需要強有力的公共討論來提供信息。
人工智能有著極為明顯的優點,其缺點也同樣明顯。伴隨人工智能的快速發展,政策製定者也需要快速採取行動。Miles Brundag對此表示興奮,他一方面認為符合公眾所需的人工智能政策想法還未出現,一些觀點不好或者過於模糊,而另一方面他指出我們確實擁有一些被需要的想法亟待實施。一些意識或者政治意願處於缺失狀態,這是Miles Brundag不想將自己局限於研究的一項原因。
Miles Brundag指出,數十家公司將在幾年時間內擁有足以造成災難性風險的系統,提高前沿人工智能的安全性非常緊迫。
由於包括私人和社會利益的錯位等諸多原因,公司和政府不一定會在預設情況下給予人工智能安全性應有的關注。Miles Brundag認為,監管可以減少私人和社會之間的利益錯位,對人工智能技術的安全性做出把控。
在人工智能的經濟影響方面,Miles Brundag表示,在未來幾年內,人工智能可能會帶來足夠的經濟增長,如果有適當的政策來確保財富公平分配,人們能夠輕鬆實現提前退休。
人工智能可能會在短期內破壞迫切需要工作的人的機會,Miles Brundag對此表示擔心,但他同時認為人類最終要消除以工作為生的義務,邁向「後工作世界」。
除了對前沿人工智能安全性的監管以及經濟影響的關注,Miles Brundag還對人工智能進展的評估預測、加速有益的人工智能應用、計算治理以及整體「人工智能大戰略」等多個課題表達了興趣。
關於離職後的計劃,Miles Brundag表示自己將成立新的非營利組織,或者加入現有的非營利組織,致力於人工智能政策研究和倡導。
Miles Brundag表示自己的興趣是全球性的,但自己可能會更專注於自己更為熟悉的國家,如美國。
OpenAl為Miles Brundag提供了資金、API信貸和對新成果的早期模型訪問,並保證不會有與這種支持相關的出版前審查,但是出於對獨立性的考慮,Miles Brundag在文章中表示自己尚未決定是否接受這些提議。