對話院士鄔江興:如今的大模型,100%不安全且不可信! 丨 WeTalk
文 丨 新浪財經 周文猛
當前,全球各大企業均在以前所未有的熱情擁抱AI,但與AI伴生的安全問題,正引發更多擔憂。
近日,鄔江興告訴新浪財經《WeTalk》欄目,“不是90%的大模型不可信,而是100%的大模型都不安全、不可信”。他建議人們不要只相信單一大模型,而是“要相同的問題,多問幾個模型”。
他指出,每一個模型都是相對可信,但都存在缺陷,“你要想它沒缺陷,這個是不科學的”。
以下為《WeTalk》與鄔江興對話部分內容:
“100%大模型不可信,不要信任何一個大模型”
新浪財經:你們之前測試表明,90%的大模型都不可信任,現在這個結果有沒有一些改進了?可信度提升了嗎?
鄔江興:不是90%不可信,是100%都是不安全的,它沒有絕對的安全,100%都是不可信的。
它要通過必要多樣性去表達,通過相對可信,而不是去追求絕對可信,絕對可信是沒有的。所以每一個模型都是相對可信,都是存在缺陷,你要想它沒缺陷,這個是不科學的。但是我可以用這些帶有缺陷的模型,按照內生安全構造構成一個相對可信的環境,他得到的結論,就要比大多數模型可信得多。
所以說以後人工智能應用的時候,你們千萬不要說我只用一個文心一言,用一個豆包等。把問題多問幾個模型,然後你自己來處理。當然,如果是內生安全的系統,我們自動可以來給你處理。
一個人,兼聽則明,偏信則暗。道理是一樣,不要去信某一個模型,可以有多幾個模型,同一個問題向幾個模型一起問,然後他們裡面共同的一部分是可信的,不同的部分你要判斷。
“用AI解決AI安全問題,這是個偽命題”
新浪財經:您之前提過AI存在“三不可”問題,那該如何讓AI更可用呢?
鄔江興:AI運行不能去靠某一個大模型,不能是必要的關係,應該有多個大模型,然後讓他們按照內生安全的構造連接起來,有相對正確的工藝,有所謂的共識機制,讓我們可以來判斷。也就是當一個數據輸入時,多個模型因為存在共識機制,所以肯定不會辦指鹿為馬的事,如果有個模型真的出來指鹿為馬了,其他模型也可以判斷出它是指鹿為馬,不會讓我們以為這就是馬。
控製論的第一性原理叫必要多樣性,沒有必要多樣性就沒有穩定的控製,每一種單一的東西都可能是不完美的,哥德爾不完全性定理同樣指出,任意一個包含一階謂詞邏輯與初等數論的形式系統,既不能被證明為真也不能被證明為否,也就是說我們想用AI去解決AI的安全問題,都會是個偽命題。
我現在的解決方法是什麼?我可以用多個AI模型,因為他們存在價值對齊,所以他不能胡說八道,各個模型中間會有很多多樣性和特殊性,因為利用了這些多樣性和特殊性,也就知道你攻擊了哪個模型,同時其他模型也不會受到影響。就是說你想一槍打多隻鳥的可能性沒有了,這樣的話就極大地提高了應用系統給出結論的安全性。
“閉源的單一模型,一定是不安全的”
新浪財經:這是否也意味著,一些商業機構說自己的模型是閉源的,所以更先進,這其實是個偽命題呢?
鄔江興:這一定是有問題的,單一性一定是有問題的,閉源帶來不了安全性,因為他如果遭到破壞,單一的破壞就可能造成全部破壞,而當我們說必要多樣性時,你能破壞A的時候,你不可能同時破壞B、C、D。
物理世界的統一性和物質世界的多樣性是怎麼表達的?他要求的是生物多樣性,也就是說某種生物可能會在某種災難後消失掉,但由於生物的必要多樣性,能保證整個地球生物的生態不會因為某個物種的消失而完蛋,但如果是一個同質化的物種,很可能在未來的演化和進化過程中,遭遇不測的時候就滅絕了。
新浪財經:類似於群策群力、人多力量大?
鄔江興:開源不光是群策群力,他還有多種多樣性。我們現在搞AI的人,總是想辦法把一個AI搞得安全,在理論上這是不成立的,沒有絕對安全的東西,只有相對安全。
新浪財經:您之前提出了一個多樣動態異構冗餘架構,這是您理念的具體載體嗎?
鄔江興:這是一個設計結構,就像我們的可靠性系統中,它要求你設計成主備或者是動態備份和靜態備份,這個動態異構冗餘是指你的一個信息系統或者一個大模型系統,你要把它設計成這樣的一個架構,來按照這個架構就能得到安全性,它現在是一個框架的形式。