新研究:ChatGPT 能耗或遠低於此前預估,單次查詢僅約 0.3 瓦時
IT之家 2 月 12 日消息,非營利人工智能研究機構 Epoch AI 發佈了一項針對 ChatGPT 能耗的新研究,指出其能耗水平可能遠低於此前的普遍認知。

此前,一個被廣泛引用的數據顯示,ChatGPT 回答一個問題需要消耗約 3 瓦時的電量,這一數字是Google搜索的 10 倍。然而,Epoch AI 的研究人員認為這一數據被高估了。通過分析 OpenAI 最新的預設模型 GPT-4o,Epoch AI 發現,ChatGPT 的平均查詢能耗約為 0.3 瓦時,低於許多家用電器的能耗水平。
Epoch AI 的數據分析師祖舒亞・尤(Joshua You)在接受 TechCrunch 採訪時表示:「與使用普通電器、調節室內溫度或駕駛汽車相比,ChatGPT 的能耗並不算什麼。」
IT之家注意到,隨著 AI 行業的快速發展,其能耗問題和對環境的影響成為公眾關注的焦點。就在上週,超過 100 個組織聯合發表公開信,呼籲 AI 行業和監管機構確保新的 AI 數據中心不會過度消耗自然資源,避免依賴不可再生能源。
祖舒亞・尤指出,他之所以開展這項分析,是因為此前的研究存在過時的問題。例如,得出 3 瓦時能耗估計的研究報告假設 OpenAI 使用的是較老、效率較低的芯片來運行其模型。尤表示:「我看到很多公眾討論都正確地認識到 AI 在未來幾年將消耗大量能源,但並沒有準確描述當前 AI 的能耗情況。此外,我的一些同事注意到,每次查詢耗電 3 瓦時的估算數據是基於較舊的研究,而且從初步計算來看,這一數字似乎過高。」
儘管 Epoch AI 的 0.3 瓦時數據是一個估算值,因為 OpenAI 尚未公佈足夠的細節來進行精確計算,但這一研究仍然具有重要意義。此外,該分析並未考慮 ChatGPT 的圖像生成或輸入處理等額外功能所消耗的電量。尤也承認,帶有長文件附件等「長輸入」的 ChatGPT 查詢可能會比普通問題消耗更多的電量。
不過,尤預計,ChatGPT 的基礎能耗未來可能會增加。他指出:「AI 將變得更加先進,訓練這些 AI 可能需要更多的能源,未來的 AI 可能會被更頻繁地使用,並且處理更複雜、更多的任務,而不是像現在人們使用 ChatGPT 這樣。」
此外,OpenAI 和整個 AI 行業的關注點也在向推理模型轉移。與 GPT-4o 等能夠近乎即時響應的模型不同,推理模型需要花費數秒甚至數分鐘來「思考」答案,這一過程會消耗更多的計算能力,從而導致更高的能耗。
尤表示:「推理模型將越來越多地承擔舊模型無法完成的任務,並為此生成更多的數據,這都需要更多的數據中心支持。」儘管 OpenAI 已經開始推出更節能的推理模型,如 o3-mini,但目前來看,這些效率提升似乎不太可能抵消推理模型「思考」過程以及全球 AI 使用量增加所帶來的額外能耗需求。
廣告聲明:文內含有的對外跳轉鏈接(包括不限於超鏈接、二維碼、口令等形式),用於傳遞更多信息,節省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。