GPT-4火爆,遍地開花的人工智能會失控嗎

▲3月20日,在天津市人工智能計算中心中控室,技術人員在監控設備運行情況。圖/新華社▲3月20日,在天津市人工智能計算中心中控室,技術人員在監控設備運行情況。圖/新華社

  OpenAI的GPT-4、微軟的Copilot、百度的文心一言、Google的Bard、Adobe的Firefly……近期,國內外一系列生成式人工智能應用發佈,引發了廣泛的關注。

  除了對技術進步感到興奮,有風險意識的人也會產生這樣的擔憂:人工智能會失控嗎?風險如何防範管控?

  美國人工智能研究實驗室OpenAI公司的首席執行官山姆·阿爾特曼(Sam Altman)近日表示,他對人工智能(AI)技術的潛力感到興奮,但也對一些潛在的濫用行為「有點害怕」。

  OpenAI是近期大火的AI聊天機器人ChatGPT的開發商,該公司由埃隆·馬斯克與阿爾特曼等人共同創立。

  上月,OpenAI創始人之一的埃隆·馬斯克表示,「它有巨大的前景也有巨大的能力,但隨之而來的危險也是巨大的。」

  人工智能還沒到「失控」水平

  3月15日,OpenAI發佈的GPT-4安全文件中提到, 「一些特別令人擔憂的是製定長期計劃並採取行動、積累權力和資源(‘尋求權力’)以及表現出越來越‘自主’的行為的能力。」

  據媒體報導,近年來,有人工智能研究人員提出警告,足夠強大的AI模型如果沒有得到適當控制,可能會對人類構成生存威脅。尤其是「人工智能接管(AI takeover)」,這是人工智能超越人類智能成為地球主導力量的假想未來。在這種情況下,人工智能可能會導致災難性後果。

  隨著人工智能的高速發展,其可能帶來的風險也引起了人們的高度關注。這就帶來了一個擔心,遍地開花的人工智能會失控嗎?

  首先,這種失控現在來看還不致於發生,因為目前的人工智能還沒發展到這個水平。

  失控的前提是AI要具有自主性,就是在很大程度上獨立完成任務。那麼,在AI系統沒有足夠理解人類價值觀和道德準則的情況下,這種自主性就可能導致失控的風險。

  但目前的生成式AI本質上還是人類的工具,給它一個指令,它來生成相應的文字、圖片等內容,所以人們暫時還不需要有這方面的擔心。

  當然,隨著技術的不斷髮展,未來這個潛在風險會成為我們重點去關注的問題。

  更有可能失控的是用技術來為非作歹的人

  比起失控的技術,更有可能失控的是用技術來為非作歹的「人」。比如,惡意使用者可能會利用ChatGPT來製造虛假信息、實施欺詐活動或進行其他不道德行為。

  這很像人們擔心會被AI替代導致失業一樣,這其實是關注錯了重點。因為其實人不會被AI淘汰(至少目前不會),而是會被掌握AI工具的「人」淘汰。

  因此,這個層面上的風險,關鍵因素都在於人,而不是技術本身。因為即便沒有AI,壞人也會用其他手段做壞事,善於學習的人也會運用其他工具提升自己的競爭力。

  雖然AI目前不至於失控,但還是有一些風險。

  一方面是它們會一本正經地胡說八道,如果用戶把它所說的都認定為事實,那就會被誤導。在這方面需要媒體多做普及,讓更多人認識到ChatGPT等AI大模型並非無所不知。

  另一方面,有可能出現個人隱私或商業機密泄露的情況。比如,用戶在與ChatGPT等聊天機器人交流時,無意識地提供了敏感信息,如個人身份信息、聯繫方式或公司內部信息等。一旦這些信息被記錄或存儲,就可能導致隱私或商業機密的泄露。雖然AI服務提供商會採取措施保護用戶數據,但數據存儲和傳輸過程中仍然可能存在安全風險。

  此外,由於訓練數據集可能存在偏見,聊天機器人的回答會反映這些偏見,從而導致歧視性或不公平的結果。也可能因無法準確判斷道德和倫理問題,有時產生不道德或具爭議的建議。

  從三個方向規避人工智能風險

  那人類該如何規避這些風險呢?可以從三個方向進行。

  第一個方向就是提高公眾的認知。一方面要提高對AI技術的瞭解,避免被不恰當的信息所誤導;另一方面,提高數據安全意識,避免泄露個人隱私或商業機密等敏感信息。新聞媒體在其中可發揮重要作用。

  第二個方向是實施更全面的人工智能監管。首先,需要製定明確的法規和指導方針,以規範AI的研發、部署和使用。其次,政府、企業、研究機構和民間組織需要加強合作,共同製定和執行AI監管政策,這有助於確保政策的全面性和有效性。另外,由於 AI技術不受國界限制,應積極參與全球性的AI治理倡議,以確保全球範圍內的政策協調和一致性。

  第三個方向就是加強對於AI安全的研究。政府、企業和研究機構應增加對AI安全研究的投資,為相關項目提供充足的資金和資源。此外要重視AI安全領域的人才培養,鼓勵學生和研究人員從事相關研究,可以通過提供獎學金、實習機會和專門的課程來實現。同時進行跨學科合作,鼓勵計算機科學家、安全專家、倫理學家、法學家等領域的專家進行跨學科合作,共同應對AI安全所帶來的挑戰。

  OpenAI在創立之初的核心宗旨就是——實現安全的通用人工智能,使其有益於人類。

  「安全」這兩個字對人工智能來說至關重要。無論是作為開發者、用戶還是監管者,人們都應當時刻關注AI技術的安全性,確保人工智能不會被濫用。只有這樣,我們才能充分發揮人工智能的潛力,為人類社會帶來更多便利和進步。