獲盧保物理學獎的AI教父辛頓:曾在Google工作十年,提醒AI或威脅人類生存

「AI(人工智能)教父」、神經網絡領域大牛獲盧保物理學獎。

 美國普林斯頓大學的約翰·霍普菲爾德(John J。 Hopfield)和加拿大多倫多大學的傑佛瑞·辛頓(Geoffrey E。 Hinton) 美國普林斯頓大學的約翰·霍普菲爾德(John J。 Hopfield)和加拿大多倫多大學的傑佛瑞·辛頓(Geoffrey E。 Hinton)

當地時間10月8日,瑞典皇家科學院宣佈,將2024年盧保物理學獎授予美國普林斯頓大學的約翰·霍普菲爾德(John J。 Hopfield)和加拿大多倫多大學的傑佛瑞·辛頓(Geoffrey E。 Hinton),以表彰他們「為推動利用人工神經網絡進行機器學習作出的基礎性發現和發明」。獲獎者將共享1100萬瑞典克朗(約合745萬元人民幣)獎金。

盧保獎評獎委員會表示:「今年物理學獎得主取得的突破建立在物理科學的基礎上。他們為我們展示了一種全新的方式,讓我們能夠利用計算機來幫助和指導我們,應對社會面臨的許多挑戰。」

從20世紀80年代開始,兩位獲獎者就在人工神經網絡方面開展了重要工作。其中,霍普菲爾德是一名物理學家,提出了日後被稱為「霍普菲爾德網絡」的一種新的神經網絡模型,振奮了該領域的研究。

另一邊,辛頓的名聲或許更加響亮一些。他是卷積神經網絡理論的領軍人物,也被視為由ChatGPT掀起的本輪AI技術躍進背後的奠基性科學家,被譽為「AI教父」。

辛頓出生於1947年,經歷了複雜的求學經歷,隨後開始潛心研究神經網絡。他與其他兩位作者一同在1986年發表了一篇題為《通過反向傳播誤差來學習》(Learning representations by back-propagating errors)的論文。在這篇奠定了深度學習理論核心的論文中,三位科學家將反向傳播算法應用於多層神經網絡,並且證明了這種方法對機器學習行之有效。

隨後,辛頓在卡內基梅隆大學任教五年,後來成為加拿大高等研究院的研究員,並進入多倫多大學計算機科學系任教。辛頓在2013年加入Google。因其在深度學習方面的貢獻,他與祖舒亞·本希奧和楊立昆被一同稱為「深度學習三巨頭」,三人在2018年被授予了圖靈獎。

2023年5月,辛頓從Google離職。自那以後,他持續公開呼籲謹慎對待AI技術,成為旨在引導AI系統、使其行為符合設計者利益和預期目標的「AI對齊派」的代表。目前,辛頓是英國皇家學會會士,也是美國國家工程學院和美國藝術與科學學院的外籍會員。

在數十年的研究生涯中,辛頓可以稱得上是「桃李滿天下」。例如,在去年年末那場受到全球矚目的OpenAI「政變風雲」中,被猜測發現「超級智能」突破、試圖解僱公司CEO的OpenAI前首席科學家伊爾亞·蘇茨克韋(Ilya Sutskever)正是辛頓最得意的弟子之一。

今年5月,蘇茨克韋從OpenAI離職,並在一個月後宣佈成立新公司SSI(Safe Superintelligence Inc,安全超級智能),表示新公司將致力於追求安全超級智能。

而在辛頓這邊,自從離開Google後,他也在一向旗幟鮮明地宣揚「AI威脅論」。在去年離職後不久,辛頓便在X(原Twitter)平台上發文表示,他離開Google就是為了可以「公開地談論AI的危險」。

隨後,辛頓在一場採訪中直言,他開始對自己一生從事的工作感到有些後悔:「我用平常的藉口來安慰自己:就算我沒做,別人也會做的。。。。。。很難想像,你能如何阻止壞人利用它(AI)來做壞事。」

今年3月,辛頓在接受外媒採訪時又一次詳細闡述了自己的觀點。他表示,自己在2023年4月與作為上司的Google首席科學家傑夫·甸恩(Jeff Dean)展開過討論,稱AI有可能帶來事關人類生存的危機;甸恩希望能挽留他留在Google研究AI的安全對策,但為了不受公司利益限制,辛頓還是選擇了離開。

辛頓認為,AI的危險之處在於,其真的有可能採用對人類有害的手段來實現被設定的目標,並且AI之間還可能會在未來出現競爭關係:「面對通過競爭變得更聰明的AI,我們人類將會落後。很多人主張,要防止AI失控,只要關掉電源開關即可。但超越人類智慧的AI可以用語言操縱我們,或許會試圖說服我們不要關掉開關。」

在採訪中,辛頓還表達了對學生蘇茨克韋的支持,稱從OpenAI的「政變」大戲中可以看出,比起安全性,組織往往會更重視AI創造的利益。