用「非AI PC」運行AI應用後,我們發現了這些真相
眾所周知,最近隨著DeepSeek的爆火,各種智能手機和PC上的「AI應用」再次引發了大量關注。

很顯然,站在普通消費者的角度,哪怕是完全不瞭解相關技術細節,也會想要體驗AI的神奇之處。而對於眾多終端廠商來說,他們自然也有理由藉機宣傳自己最新的「AI硬件」,比如那些內置AI加速硬件的智能手機,以及最新的「AI PC」。
當然,大家都知道,一方面智能手機行業早在差不多10年前就擁抱了「NPU」這個概念,如今大家能買到的手機,哪怕是山寨機,許多都具備硬件加速AI代碼的能力。

另一方面來說,當前智能手機上的AI應用,包括那些廠商直接預裝的AI功能,絕大多數其實還都是基於服務器運行的「雲端AI」。所以這也就造成了一個現象,那就是不少完全不瞭解相關技術的消費者,也可以從應用商店裡下載到各種各樣的「AI APP」,並且在手機上體驗AI聊天、AI文本生成等功能。儘管在這個過程中,手機本身可能完全就沒有起到多少本地「AI運算」的作用,但大多數消費者也不會意識到這一點。
不過類似的問題,在PC上就要複雜一些了。
現階段的「AI PC」,的確有一些應用上的「特權」
首先,PC上當然也有不少純粹只依靠服務器算力、純在線模式的AI助手應用,它們許多都來自於那些AI廠商。這些廠商為了推廣自己的大模型、同時也為了實現盈利,自然就不會「挑剔」硬件,但它們大多會按照使用時間或次數來收取一定費用。當然,正因為這類PC上的AI應用完全依靠雲端算力,所以什麼樣的電腦配置理論上都可以運行。

除此之外,目前各大廠商都在推廣他們的「AI PC」產品線。為了體現這些電腦里新增的、以NPU為代表的AI加速功能的作用,相關廠商往往會給這些電腦預裝一些基於本地算力的AI應用,並且用戶可以免費使用。

很顯然,與前面提到的在線AI應用相比,本地AI應用有著不受網絡狀況影響、可以更好地保護用戶隱私,部分工況響應速度更快等優勢。但如果大家嘗試從官網下載這些「本地AI助手」,並在自己的電腦上安裝,那麼就會發現它們幾乎都帶有型號識別機制。也就是說,只要不是該品牌的對應型號機型,別說用、就連安裝都不會被允許。

當然,這樣不奇怪。一方面,這些PC廠商自己推出的「AI助手」本就可以視作相關AI PC機型的重要賣點,廠商們當然不願意非目標機型都可以安裝、使用。另一方面,這類軟件往往也確實會針對特定機型的硬件進行了深度優化,所以廠商也確實有理由禁止其他電腦安裝、特別是那些「非AI PC」的老電腦安裝,以免出現下載了幾十個GB的數據之後才發現無法兼容的情況。
那麼對於「AI PC」概念出現之前,那些不帶有NPU的老CPU、老電腦來說,難道它們就真的註定與可以本地運行的AI應用無緣了嗎?
實測表明,老電腦其實也能跑本地AI應用
為了探究這個答案,我們三易生活特意找來了兩台電腦,它們也都是我們過去內容里出現過的「老同誌」。其中一款是基於11代酷睿+DDR4內存,搭配Intel ARC A770顯卡的台式機;另一款則是一台基於12代酷睿、並帶有ARC A350M獨顯的14英吋輕薄本。


首先,我們找來了當初英特爾方面在MeteorLake-H平台發佈時,演示用的大語言模型套件。眾所周知,MeteorLake是帶有獨立NPU的,所以從理論上來說,這些Demo性質的AI套件應該是專為NPU優化,不兼容11、12代酷睿這些「無NPU處理器」才對。



然而實測結果顯示,無論11900K還是1280P,都可以順利運行這些來自英特爾的本地大模型套件。在任務管理器中可以看到,這兩台電腦都可以使用CPU來運行AI繪圖、AI對話等等功能。

可能有的朋友會說,因為這用的這是英特爾優化過的AI軟件,所以沒什麼代表性。那麼,接下來我們換成知名的、可公開免費下載的AI繪圖軟件「繪世啟動器」。眾所周知,它是目前最易用的本地AI繪圖軟件之一。但正如大家所見,它充分利用了這台老PC上ARC A770的計算單元和16GB的顯存,實現了在無網絡情況下的本地文生圖運算。


不僅如此,在一些商用AI軟件里,我們也觀察到它們似乎並不是對NPU有什麼需求,而是可以用到GPU或者CPU的算力來進行本地AI運算加速。換句話說,哪怕是在第三方的商用AI軟件里,它們似乎也並不是都要求用戶使用「AI PC」,而是可以在更老的電腦上使用,並且自動選擇CPU或GPU來作為算力來源。
為什麼會這樣?其實這與「AI PC」的定義有關
說實在的,雖然現在的廠商普遍會將帶有NPU的PC才稱為「AI PC」,但實際上,早在NPU於PC處理器中出現之前很多年,大家能夠買到的「傳統CPU」、「傳統GPU」其實就已經加入了能夠加速AI代碼運行的設計。

比如在CPU上,第一款加入AI加速指令集的產品,最早可以追溯到2018年的酷睿i9 9000X系列。從2019年的10代酷睿移動版IceLake-U家族開始,對應的DLBoost指令集開始逐漸被普及到家用產品線上。像我們這次使用的i9-11900K、i7-1280P,它們雖然不帶有NPU,但同樣支持DLBoos指令集,可以加速某些特定格式的AI推理運算。

而在GPU領域,AI加速功能甚至出現得還要更早一些。早在2017年,NVIDIA TITAN V就成為了第一款引入Tensor單元,支持AI加速推理功能的消費級顯卡。值得一提的是,它在只使用Tensor單元時的AI算力就有119TFlops,甚至要高於目前任何一款已經發佈的消費級CPU內集成NPU的算力。
至於我們此次測試使用的ARC A770 16G和ARC A350M,它們也同樣都集成了專用於AI計算的XMX單元,AI算力分別是262TOPs和44TOPs,依然要高於市面上絕大多數最新的CPU集成NPU方案。

更不要說,我們之所以「特意」使用英特爾的老款CPU和GPU,也是因為他們很早之前就推出了自家的OpenVINO API,這個API可以同時支持CPU、GPU、NPU,以及FPGA。

順帶一提,我們那台11990K台式機上其實還插有一根來自英特爾的「AI計算棒2」。它的架構本質上正是如今MeteorLake和ArrowLake處理器里集成NPU的前代,理論上本應可以給PC提供額外大約4TOPS NPU算力。但很可惜的是,目前無論是Windows操作系統、還是許多AI軟件,均不能將其識別為NPU單元進行使用,所以讓我們這次的「老PC挑戰AI軟件」測試,在某種程度上遭遇了一個不大不小的挫折。
但即便排除掉「外掛NPU」沒有正常工作這點,我們還是成功證明了,由於整個PC行業(特別是對於英特爾而言)在AI硬件的設計上其實並沒有大家想像的那麼遲鈍。所以即便沒有NPU的幫助,其實很多老電腦如今也完全可以運行本地AI運算,甚至是得到一些第三方AI軟件的適配。
現在的「AI PC」是過度營銷嗎?倒也並非如此
很顯然,我們這次的實測已經證明,雖然在具體的軟件部署上,較早的「非AI PC」老電腦確實沒法享受到時下最新硬件那種,只需要從官網下載一個安裝包就能擁有免費本地AI助手的便利,但很顯然說它們沒法運行本地AI、沒法加速本地AI應用肯定是錯誤的。這些電腦一樣可以用上最新的PC端AI軟件,它們能實現的AI功能並不見得就比所謂的「AI PC」少多少。

既然如此,現在「AI PC」的優勢又到底體現在哪,或者說為什麼廠商們普遍都在強調「AI PC」才能更好地適應AI應用的需求呢?
一方面,大家再一次回頭去看我們這次測試的截圖就會發現,雖然它們確實「能跑」、也的確有本地AI運算的加速效果,但代價要麼是吃滿CPU或GPU的佔用率。這反映到實際體驗上,就是我們在運行這些本地AI應用時,電腦幾乎就卡到很難再運行什麼別的高負載程序了。

很明顯,這種時候如果使用的是帶有足夠高性能NPU的平台,再配合專為NPU優化的專用端側AI軟件,那麼就能解放出CPU和GPU這些更能被其他常用軟件所需的算力模塊,從而改善PC在使用端側AI應用時的整體流暢度表現。打個比方說,比如一邊運行端側AI進行文字生成、一邊用軟件編輯圖像,或者是一邊打遊戲一邊用NPU跑大模型進行遊戲輔助,這樣的使用場景我們手頭的老電腦估計就沒法實現。

當然,上述這些是一種比較理想的情況,它既需要處理器內置的NPU性能「足夠強」,同時也要用戶能夠真正習慣於「和AI一起工作/遊戲」。因此從某種程度來說,它其實並不能完全代表現在「AI PC」在大多數用戶手中的體驗優勢。
但不可否認的是,通過增加一顆額外的AI處理單元(也就是NPU),現代的PC計算架構正在愈發為未來更深入、且實時可用的AI功能做好準備。儘管我們通過一系列的測試證明,那些本就自帶AI加速功能的CPU和GPU,在老電腦上可以實現「無NPU運行本地AI運算」,但同時也更進一步表明了NPU、尤其是未來算力更高的NPU,對於AI PC生態的必要性。
本文來自微信公眾號「三易生活」(ID:IT-3eLife),作者:三易菌,36氪經授權發佈。