麻省理工學院教授呼籲 AI 公司量化產品失控風險:像首次核試驗之前那樣
IT之家 5 月 12 日消息,據英國《衛報》10 日報導,麻省理工學院 AI 安全研究者馬基斯・泰格馬克指出,他進行了類似當年美國物理學家阿瑟・康普頓在「三位一體」核試前所做的概率計算,結果顯示:高度發達的 AI 有九成可能帶來生存威脅。

IT之家註:1945 年,美國在獲知原子彈引發大氣層燃燒的可能性幾乎為零後,推進了歷史性的「三位一體」核試驗。
泰格馬克與三名麻省理工學生合作發表論文,建議借鑒「康普頓常數」的概念 —— 即強 AI 失控的概率。在 1959 年的一次採訪中,康普頓提到,他是在確認失控核聚變的機率「不足三百萬分之一」後才批準了核試驗。
泰格馬克強調,AI 企業必須認真計算「人工超級智能」(ASI)是否會脫離人類掌控,而非憑感覺行事。「打造超級智能的公司必須計算康普頓常數,即我們可能失控的機率,光說‘我們有信心’是不夠的,必須拿出具體數據。」
他指出,如果多家公司聯合計算康普頓常數並形成共識,將有助於推動全球範圍內 AI 安全機制的建立。
泰格馬克是麻省理工學院的物理學教授及 AI 研究者,其參與創辦了致力於推動 AI 安全發展的非營利組織「未來生命研究所」。2023 年,該機構發佈公開信,呼籲暫停開發更強大的 AI 系統。這封信獲得超過 3.3 萬人簽名,其中包括早期支持者埃隆・馬斯克和蘋果聯合創始人史提芬・禾絲妮雅克。
信中警告稱,各大實驗室正陷入「失控競賽」,開發越來越強大的 AI 系統,而這些系統「人類無法理解、預測或可靠控制」。
廣告聲明:文內含有的對外跳轉鏈接(包括不限於超鏈接、二維碼、口令等形式),用於傳遞更多信息,節省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。