AI手機與AIPC要安全,為什麼離不開這款服務器CPU?

金磊 夢晨 發自 凹非寺

量子位 | 公眾號 QbitAI

隨著生成式AI的火速發展,AI應用開始與各種信息設備「嫁接」,AI手機AI PC,甚至AI汽車都變得越發司空見慣。

一方面,人們正在生活中享受著AI,尤其是大模型帶來的便捷,可以隨時隨地向終端設備提出問題來答疑解惑,內容可能是日常生活中遇到的麻煩,也可能是單純跟AI聊聊天解解悶,順手拍個大模型給你解說人生雞湯的影片發出來炫一下。

但另一方面,生成式AI上終端設備之後,更多地在向AI生產力的方向發展。

換言之,人們在工作上也越發地開始依賴大模型,例如直接把文檔、表格、圖片丟給設備來解析、處理。

這就引發了一個不知不覺中發生,也不可避免的話題——安全性

因為不論AI應用在何種信息設備上集成,在使用過程中都會收集和產生大量用戶數據,如個人信息、通信記錄、瀏覽歷史、生物特徵數據等,這些數據對於用戶來說具有高度的敏感性。

就好比之前的推薦模型僅僅是根據用戶的瀏覽歷史、搜索記錄、購買行為等數據,就可以讓用戶身陷信息繭房,只推薦用戶可能感興趣的內容,限制了視野的拓展,再從電商角度「殺個熟」。

而大模型加持的這些AI終端設備,涉及到用戶生活的更多方面,包括通信、工作、娛樂、金融等,甚至將來某一天它與汽車結合成為你的「副駕」,或與家務機器人結合後成為你的管家或護工時,還可能會把你家裡家外的事情摸個底掉。

所以它一旦出現安全問題,其影響範圍將遠遠超過推薦模型,可能導致用戶的財產損失、身份被盜用、工作中斷等嚴重後果。

或許有人會說了,很多AI終端廠商在做宣傳的時候都在強調斷網運行,由此可以保障本地文件或信息的安全性。

但事實真是如此嗎?

非也非也。

AIGC應用,需要端雲協同

AIGC應用在終端使用的過程中,一個明顯的趨勢是這樣的——

能力越強的AIGC應用都應當是端雲協同,這才是數據處理模式的未來趨勢。

之所以如此,是因為在大模型的應用過程中,充沛的算力和海量高質量的數據都是關鍵中的關鍵,直接影響用戶在終端的體感。

尤其在眾多面向終端部署的個人化應用里,一旦訓練或推理過程有大規模計算資源參與其中,算力相對較弱的終端便會顯得力不從心;一旦用戶探求的信息或答案需要專門的數據庫甚至高度組織的知識庫的支持,都會成為阻礙AIGC應用進一步拓展的瓶頸。

那麼端雲協同又是如何破局的呢?它的「打開方式」是這樣的:

△面向AI的端雲協同架構面向AI的端雲協同架構

在端雲協同的這一模式下,終端設備主要承擔起與使用者直接相關的各類數據的採集與預處理工作。

它如同一個敏銳的觀察者,時刻感知著周圍的環境變化,將各種原始數據收集起來,並進行初步的整理和篩選。

而那些複雜的計算任務,以及對更多數據的訪問則交由強大的雲端算力來完成。雲端就像是一個更有智慧的大腦,擁有著龐大的計算資源和先進的算法或更大參數量的複雜模型,還有個人用戶難以企及的超大規模數據來供其訓練或訪問,可以更快速、更準確地給出答案或輔助處理需求。

這樣一來,即使終端設備本身的算力和數據有限,也能夠借助雲端強勁的AI算力和數據積蓄來實現更加複雜的功能和服務。

比如,在圖像識別領域,終端設備可以快速拍攝照片並進行簡單的圖像裁剪和調整,然後將圖像數據上傳至雲端。

雲端利用其強大的計算能力和深度學習算法,對圖像進行高精度的識別和分析,最後將結果返回給終端設備,為用戶提供詳細的圖像信息和相關的服務建議。

語音處理方面,終端設備可以採集用戶的語音信號並進行降噪等預處理,雲端則負責對語音進行識別、翻譯和語義理解等複雜的處理任務,從而實現智能語音助手的強大功能。

這種模式雖好,但當客戶端各類數據需要傳輸至雲端進行處理的時候,雲端可信環境的重要性便立刻凸顯出來。

所謂雲端可信環境,指的是在雲端能夠確保終端傳來的隱私數據以及自身存儲的各類關鍵數據在處理和交互時,都能被更好地保護,不被非法訪問、篡改或者泄露。在這個數據驅動的時代,尤其是面向企業級應用,這樣的環境至關重要,其意義不言而喻。

一方面,雲端可信環境直接關係到用戶信任度的高低。

用戶在使用各種基於AI技術的應用時,會將大量的個人數據上傳至雲端進行處理;如果雲端環境不可信,用戶的隱私數據隨時可能面臨被竊取、濫用的風險,這無疑會讓用戶對這些應用產生極大的擔憂和不信任。

另一方面,雲端可信環境還將影響到AI技術與應用的長期發展和社會接受度。

如果雲端的安全性無法得到保障,頻繁出現數據泄露等問題,不僅會損害用戶的利益,還會引發社會對AI技術的質疑和擔憂。這也將極大地阻礙AI技術的進一步發展和推廣。

那麼何以解憂?CPU,瞭解一下。

或許在很多人的固有認知里,在雲上或數據中心裡,與AI數據處理相關的硬件更多應當向GPU或者專用加速器靠攏;但實際上,CPU作為系統的中央處理器,它才具備對整個系統的全面控制能力。

例如在雲端協同的數據處理中,CPU能夠對數據的傳輸、存儲和處理進行全面的監控和管理,如訪問控制、身份驗證、數據加密等。

相比之下,GPU和專用加速器主要專注於特定的計算任務,缺乏對系統的全面控制能力,難以有效地執行安全策略。

至於CPU具體是如何在這個過程中發揮作用的,我們繼續往下看。

基於CPU的可信執行環境

說到構建雲端可信環境,離不開一個關鍵技術——可信執行環境(TEE)。

它通過在硬件中創建隔離區域,保護內存中的敏感數據不被非法訪問、篡改或泄露。可信執行環境能夠為敏感數據和代碼提供獨立於操作系統和硬件配置的增強安全防護。

想要在「端雲協同」模式下構建可信執行環境,還可以從以下幾個方面入手:

採用硬件級安全技術:

目前這方面的技術,成熟且應用較多的,當屬英特爾® 軟件防護擴展(Intel® SGX)和英特爾® 信任域擴展(Intel® TDX),它們或在內存中構建被稱為「飛地」(Enclave)的安全區域,能做到應用隔離,來保護最關鍵的敏感應用和關鍵數據,或將TEE環境擴展到虛擬機層面,實現虛擬機隔離,來保護某個虛擬機環境中的數據和應用程序免遭未經授權的訪問。

構建遠程認證和密鑰管理體系:

引入英特爾® 數據中心驗真原語(Intel® DCAP)等技術,構建遠程認證服務和密鑰分發服務。確保只有經過驗證的用戶和設備才能訪問雲端資源,來更好地保護數據免受未授權的訪問和泄露。

採用可信的運行環境和工具:

利用開源的輕量級操作系統,如Gramine,確保可信運行實例的創建、加載與運行。Gramine支持對網絡通信進行加密,並可將遠程認證協議(RA-TLS)下沉,實現對應用程序透明的加密網絡通信。

基於SGX、TDX構建的雲端TEE環境,再配合遠程證明等配套服務,就構成了一套完整的面向AI任務的雲端可信方案,可以為數據提供全方位的保護。

數據可信計算:通過雲平台機密容器的構建和部署,構築了基於TEE的雙路可信AI沙箱,將AI應用的處理流程放入其中,讓用戶隱私數據在雲端「可用不可見」。

數據可信傳輸:業務側對用戶隱私數據進行加密傳輸,同時借助遠程認證服務,使業務開發或運維人員也無法獲取明文數據,確保數據在傳輸過程中的安全性。

數據可信存儲:業務側對用戶隱私數據進行加密存儲,相關憑據類敏感數據也基於”飛地”加密存儲,防止未經授權的訪問。

由此可見,這套架構不僅可以保護靜態數據,更是補齊了數據在處理和交互中的安全防護能力,做到在全流程中更好地」保駕護航」。

△面向AI的端雲協同架構英特爾® TDX技術架構面向AI的端雲協同架構英特爾®TDX技術架構

在大家熟悉的英特爾® 至強® 處理器上,相關安全技術的探索,早在幾年前AI應用還處於訓練為主的時代就已經有過成功用例。

例如阿里雲企業級ECS實例g8i方案,就通過引入第五代英特爾® 至強® 可擴展處理器,構建了有彈性可信邊界、且易於將應用程序部署在其中的分級機密計算新方案。

基於此,阿里雲提供了機密虛擬機和機密容器兩種使用模式,並推出了採用英特爾® TDX的BigDL大模型隱私保護方案。

不僅能保障AI推理階段,在預處理、數據準備、模型訓練等階段都可以對使用中的數據進行保護,更好地保證數據、模型的隱私機密性。這不僅加強了對用戶隱私的保護,也保護了寶貴的模型資產不被竊取。

△英特爾® TDX技術架構英特爾®TDX技術架構

還有金融業的平安科技和其他行業一些AI應用的先鋒,更早時就曾探索基於SGX技術來實現更安全、更可信的聯邦學習,或者隱私保護的機器學習應用,當然這些應用也都屬於訓練類型,也都是面向那些願意提供自家數據來訓練一個共有模型的多家企業或機構,讓他們的數據在這一過程中得到更好的保護。

再來回顧至強CPU安全能力的進化史。英特爾在這條道路上從未止步。

在至強® 處理器中,SGX首次作為附加功能出現在第二代英特爾® 至強®  可擴展處理器中,並在第三代至強® 可擴展處理器中成為標準功能。

而TDX首次在2023年隨第四代英特爾® 至強® 可擴展處理器(代號Sapphire Rapids)引入。第五代至強® 可擴展處理器進一步推廣了TDX技術,使其在市場上更廣泛可用。

隨著AI技術的不斷髮展和應用場景的不斷擴大,加強數據隱私和安全的需求將日益凸顯。構建雲端可信環境,不僅為雲上用戶數據提供全方位的保護,也為大模型、生成式AI的個人化落地,以及「端雲協同」模式下的數據安全與隱私保護提供了有價值的參考。

而這一切,都有英特爾® 至強® 這款服務器CPU在背後默默發力和支持。

而今,在最新一代至強® 6處理器產品上,不論是6月發佈的能效核(E-core)產品,還是剛剛官宣的,擁有更強單核性能、更高核心/計算密度、更高能效表現、以及更強內存和IO支持的性能核產品——至強6900P系列身上,SGX和TDX都未缺席,正是它們為這些CPU產品增添了「更安全可靠」的定語,也為AI應用和數據的安全保障帶來更加可行、可用,易用,好用的保障。

為了科普CPU在AI推理新時代的玩法,量子位開設了《最「in」AI》專欄,將從技術科普、行業案例、實戰優化等多個角度全面解讀。

我們希望通過這個專欄,讓更多的人瞭解CPU在AI推理加速,甚至是整個AI平台或全流程加速上的實踐成果,重點就是如何更好地利用CPU來提升大模型應用的性能和效率。