AI應用與治理如何平衡?江小涓、張亞勤、曾毅等共話邊界

DeepSeek的橫空出世,吸引了全球的目光聚焦於中國。隨著AI技術的「狂飆式」發展,與之相伴的安全問題也引起市場廣泛擔憂。3月26日,一場關乎AI未來的全球對話,在博鼇亞洲論壇的現場激烈交鋒。
針對通過標準能否解決人工智能的安全性問題,與會嘉賓給出了不同的見解, vivo首席安全官魯京輝表示,安全性問題不能簡單地通過製定法律或規則來解決,而是需要形成共識,但光有共識還不夠,因為這還涉及地緣政治、全球化等問題。
中國科學院自動化研究所研究員、聯合國人工智能高層顧問機構專家曾毅也表達了類似的觀點。他認為,由於很多安全和風險問題是不可預知的,對於不可預知的部分我們需要一直保持警惕。
中國工程院院士、清華大學智能產業研究院(AIR)院長張亞勤則認為,從可控性和可信度方面,技術是可以解決信息安全的。「對於風險,我們需要定義一些紅線和邊界,因為技術不斷髮展,有了邊界之後我們是可以解決的,如果完全沒有邊界,只談一些大的原則,談一些具體方案是比較困難的。」
張亞勤:DeepSeek是近兩年來人工智能領域最大的創新
「今年以前,我們沒有想到會發生這麼大的變化,AI已經走向AI Agent(智能體)階段。」張亞勤坦言,DeepSeek是近兩年來人工智能領域最大的、系統性、規模性的創新,也是中國對全球的重要貢獻。
張亞勤表示,AI已從信息智能走向無人駕駛、機器人等物理智能,也走向人腦接口、生物體大模型等生物智能。他認為,無人駕駛是具身智能最大的應用,也是第一個能夠真正落地的方向,而人形機器人還需要更長時間。
談及AI Agent廣泛應用後的風險時,張亞勤指出,相關安全風險至少要增加一倍。「智能體是很好的技術,能夠自我規劃、學習、試錯並達到目的,是非常好的工具,但在其運行過程中,中間路徑不可控。「雖然智能算法並非完全的黑盒子,但很多運行機理我們並不清楚。」
張亞勤表示,風險主要表現為兩大方面,一種是可控風險,一種是被壞人所利用的風險。「另外,我們用智能體的時候需要設置一些紅線,比如智能體不能自我複製。確實能力越大,帶來的風險越高,特別是AI從信息智能到物理智能再到生物智能,風險會增加很多倍。」
曾毅:人工智能的發展和安全不是相互掣肘的關係
伴隨著人工智能的發展,業內對其創新與治理的態度經歷了顯著轉變。在去年的博鼇亞洲論壇上,業內更多聚焦人工智能的發展前景及趨勢,今年論壇將目光瞄準了更深層次的問題,人工智能的應用與治理。
「去年全世界的科學家對於如何構建安全護欄是不知道答案的。彼時,多位全球學者自願簽署叫停人工智能6個月的發展倡議。但是經過了半年多一年的探索,我們已經有了初步答案,人工智能的發展應用和安全之間的關係不是相互掣肘的關係。」曾毅表示。
曾毅認為,人工智能、大模型能力的提高並不代表安全能力就好。他表示,現在很多人工智能大模型,包括國內的人工智能大模型,在認知問題求解能力上與GPT系列在同一水平上,但在倫理框架上還有提升空間。
「今年倫理安全應該作為人工智能大模型發展的基因,應該作為第一性原理,不可刪除,不可違背,同時做到穩健發展。」曾毅表示。
「不要讓人工智能完全代替人的決策,一定要讓決策權利在人類手中,這是當代人工智能應用時我們必須注意的問題。」曾毅強調。
江小涓:過去多年AI治理方面的進展有限
「前面兩位科學家都比較樂觀地表達了人工智能由於技術的發展,它的安全問題可能會有比較好的解決,我一方面同意這個判斷,但是另一方面我認為技術發展會帶來新的問題。」中國社會科學院大學教授、國務院原副秘書長江小涓表示。
江小涓表示,過去多年AI治理方面的進展有限。「從十年前阿西洛馬人工智能原則提出一直到現在,這個原則已經討論十年了,一個月前巴黎AI峰會依舊是繼承了過去喊的這些原則。這些原則落地非常有限,如何落地、如何實踐是最大的挑戰。」
從經濟學家角度來看,江小涓表示,技術是不是可以接受主要關注兩個標準,第一,能不能帶來生產力的提高,使其創造更多的財富。第二,(技術)發展的結果能不能被比較公平地分享。「從這兩個原則來講,AI的發展肯定是提高勞動生產率了,但第二個問題是不是能夠比較好地被社會所有成員分享,從經濟學角度上體現為就業是不是充分?分配是不是公平?如果這兩個問題不能解決的話,我們有什麼替代政策?」
江小涓認為,(AI對)就業的衝擊必定會出現。「我們應該有新的社會保障政策來執行它,而不是一再重覆那些不能落地的原則。」
新京報貝殼財經記者 胡萌 編輯 王進雨 校對 柳寶慶