OpenAI 首席科學家雅高・帕祖茨基:AI 今年可自主生成有價值的軟件
IT之家 5 月 14 日消息,《自然》雜誌採訪了 OpenAI 首席科學家雅高・帕祖茨基,討論了人工智能能否生成原創科研成果、人工通用智能(AGI)的前景,以及公司即將推出的開源模型。

IT之家附問答內容大意如下:
Q:越來越多的科學家開始使用推理模型。這些模型在五年內可能帶來哪些變化?
A:
如今,你與模型互動時,它更像是一個需要不斷引導的助手。我預計,這種狀況會發生重大變化。
我們已經看到了像 OpenAI 的 Deep Research(一個能夠整合大量信息的工具)能夠在沒有監督的情況下工作 10 到 20 分鐘,並且能產生有用的結果。但解決這些問題所需要的計算資源相對較少。
如果你有開放的研究問題,值得在這類問題上投入更多的計算。我預計,我們會擁有能夠進行原創研究的 AI。例如,在自動化軟件工程和硬件組件的自主設計等領域,將會有很多進展,其他學科也會出現類似的應用。
Q:在 OpenAI 推理模型的開發中,基於試錯和獎勵的「強化學習」有多重要?
A:
最初的 ChatGPT 版本包括一個無監督的預訓練階段,模型通過攝取大量數據構建「世界模型」。然後,我們通過強化學習的過程,借助人工反饋,提煉出一個實用的助手。
最新的推理模型進展可以看作是更重視強化學習階段,這樣我們不僅僅是提取信息,還讓模型能夠找到自己的思維方式。
一個問題是,是否應該繼續將這些學習階段分開看待。推理模型不是在空白中學習思考,它們是基於預訓練模型的基礎進行的。我的工作重點之一就是研究這個階段,並融合不同方法,理解它們的相互作用。
Q:你提到模型在「思考」。那麼,模型是否真的在推理?還是它們只是在模擬推理的過程?
A:
我們需要明確一點:模型的工作方式和人類大腦的工作方式不同。預訓練模型學到了世界的一些知識,但它並不真正理解自己是如何學到這些的,也沒有時間順序感。
我相信,我們已經有足夠證據表明,模型能夠發現新的見解。我認為這可以算作是一種推理,但這並不意味著它與人類的推理方式完全相同。
Q:奧爾特曼曾表示,OpenAI 將很快發佈開源模型,這是自 2019 年 GPT-2 以來的首次。你能告訴我這些計劃的詳細情況嗎?
A:
我對此非常興奮,尤其是能夠為研究人員提供一個開源模型的機會,讓他們能夠下載並進行進一步訓練。隨著這些模型的不斷進步,我們需要承擔更多責任,瞭解它們的部署方式如何影響人類。
我認為,要發佈具有開源權重的前沿模型會非常困難,主要是出於安全考慮。我希望能夠發佈一個比現有開源模型更好的版本。
Q:你對 AGI 的定義是什麼?你認為我們何時能夠實現它?
A:
我(對 AGI)的時間表和定義都發生了很大的變化。剛進入研究生院時,我看到了 AGI 的一個重要里程碑 —— 圍棋,之前我認為還需要幾十年。顯然,圍棋在 2016 年就被攻克了,那一刻讓我感到震撼。
2017 年加入 OpenAI 時,我還是公司內最大的懷疑者之一,但里程碑的突破比我預期的要快。在圖靈測試方面,我們已經取得了顯著進展。接下來,問題是數學和問題解決能力呢?我們在這些方面也取得了很大進展,我預計最具挑戰性的基準測試將很快被超越。
因此,我目前在關注的下一個重要里程碑是,人工智能能否在經濟上產生實際的、可量化的影響,尤其是能否創造原創的科研成果。對我而言,這接近我以前對 AGI 的情感定義。我們現在正專注於這個方向,預計到本十年結束時,我們將取得非常顯著的進展。甚至今年,我也預計 AI 將能幾乎自主地生成有價值的軟件,儘管可能不會解決重大的科學難題。
廣告聲明:文內含有的對外跳轉鏈接(包括不限於超鏈接、二維碼、口令等形式),用於傳遞更多信息,節省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。