手機端本地部署 Deepseek +桌面端 Deepseek 搭建知識庫教程
【天極網手機頻道】從去年年底開始,國產 AI 大模型迅速嶄露頭角,其中由幻方量化旗下深度求索公司研發的 Deepseek,憑藉其卓越表現,在上個月震撼了整個人工智能行業。這家位於杭州的中國公司將中國 AI 技術推向了世界一流的水準,並於 2025 年 1 月 20 日開源了 Deepseek R1 大模型。關於 Deepseek,這段時間也傳來不少新聞,包括它曾遭遇駭客攻擊,因此限制國外手機號註冊 Deepseek 賬號等問題。與此同時,OpenAI 首席執行官 Sam Altman 在社交平台 X 上發佈了關於 ChatGPT 的未來規劃,透露將為所有用戶提供免費版 ChatGPT 的無限聊天權限,但需遵守濫用閾值,並計劃推出 ChatGPT-4.5 和 ChatGPT-5。這些消息從側面印證了 Deepseek R1 已經達到與 ChatGPT-4 相媲美的國際水平。

本文將介紹如何在Android手機和桌面設備上分別部署本地運行的 Deepseek R1 模型,並搭建知識庫。那麼,為什麼選擇在本地部署 AI 大模型呢?本地部署 Deepseek 具有諸多顯著優勢。首先,數據隱私得到更好的保障,用戶的私人數據無需上傳至雲端或第三方服務器,從而大大降低了數據泄露的風險。第二點,本地部署能夠顯著提高響應速度,因為無需依賴網絡連接和遠程服務器,特別是在網絡不穩定時,用戶體驗更加流暢,尤其是現在 Deepseek 的官網由於大量用戶訪問已經造成了大概率都是“服務器繁忙,請稍後再試。”此外,離線使用是另一個重要優勢,用戶可以在沒有網絡環境的情況下,依然享受模型的服務,適用於高安全性或特殊場景。最後一點,通過本地部署,用戶可以建立自己的數據庫,實現對數據的完全控制和管理,進一步提高數據處理的靈活性與安全性。


當然,與此同時,運行 DeepseekAI 大模型需要強大的計算資源,如高性能的 CPU、GPU,以及大容量的內存和存儲設備。這對於普通筆記本電腦而言,可能需要升級硬件,增加了成本和複雜性。部署完成的 R1 模型在推理能力、網絡資源整合等方面肯定是不如直接從網頁訪問回答的準確和智能。
Android端
部署 Ubuntu 環境
首先,需要準備相關工具。進入 Github 官網,搜索 Termux,找到最新的 APK 應用包並進行安裝。Termux 是一款終端模擬器應用程式,專為 Android 系統設計,提供完整的 Linux 環境,允許用戶在 Android 設備上運行 Linux 命令和工具,無需 root 權限。後續將通過 Termux 環境部署 Deepseek R1 模型。建議使用Snapdragon 8 Gen2 以上的設備進行部署,以保證性能。

進入 Termux 軟件,輸入termux-change-repo指令並運行:
應用程式內會彈出一個窗口,選擇運行單個鏡像文 “Single mirror Choose a single mirror to use”,並點擊:
在下一個界面,找到清華大學鏡像文件源(Tsinghua University),如果沒有找到,可以通過雙手捏和將顯示界面縮小找到,隨後同樣點擊:

此時重新回到命令行界面,輸入“pkg update && pkg upgrade”,更新升級至最新的軟件包,等待完成後,輸入“y”,

下一步,部署 Ubuntu 環境,需要一定的網絡條件,分別安裝順序執行一下操作部署安裝 Ubuntu工具,pkg i proot-distro,此命令使用 pkg 包管理器安裝 proot-distro 工具,proot-distro install ubuntu:使用 proot-distro 工具安裝 Ubuntu 發行版,安裝完成後,再輸入proot-distro login ubuntu:登錄到已安裝的 Ubuntu 環境,進入 Ubuntu 的命令行界面。完成以上操作後在命令行界面會有“ root@localhost:~#”,即表示成功進入Ubuntu 環境,此次下載部署在本地的Deepseek R1模型即將運行在此環境中。

下載 Deepseek 模型
在上一步最後的Ubuntu 環境命令行界面,輸入“curl -fsSL https://ollama.com/install.sh | sh”,通過ollama官網下載Deepseek模型,等待進度條完成,需要一定的網絡條件,隨後進入如下界面:

在分別執行“OLLAMA_HOST=0.0.0.0”、“ OLLAMA_ORIGINS=* ”、“ollama serve”三個指令,更改接口並且運行ollama服務。此時,回到桌面,長按Termux圖標,點擊“New session”,回到應用內輸入兩個指令,啟動Ubuntu環境,並下載ollama模型,回到Termux應用,輸入“proot-distro login ubuntu”和“ollama run deepseek-r1:1.5b”,再輸入回車,模型開始下載,等待完成即可。

不建議下載過於複雜的模型,數字越大意味著部署的模型就越聰明,同時所需的手機性能也會越高。

通過Chatbox 與 Deepseek 交互
模型下載完成後,不要關閉Termux 進程的後台,進入 Chatbox 官網,下載Android版本 APK 文件完成應用安裝,打開應用後,點擊“使用自己的 API Key 或本地模型”,模型提供方依次選擇 Ollama API,模型選擇“Deepseek-r1:1.5 b”,可以對模型進行身份設定,方便回答用戶問題,隨後關閉Termux 和 Chatbox 應用。
每次啟動 Chatbox 之前,重新打開 Termux 進入 Ubuntu 環境並 運行 ollama 模型,輸入以下兩個指令:“proot-distro login ubuntu”和“ollama serve”,回到 Chatbox,即可與 Deepseek 交流了。

受限於手機性能,可能需要一定的響應時間,請耐心等待,以下是實際體驗,為了避免手機清理後台,建議將 Termux 鎖定在後台。ok,以上為手機端部署 Deepseek 的全部內容了。
桌面端 Deepseek 建立知識庫
在手機端部署本地 Deepseek 大模型相對複雜,但只要按照步驟操作,實際上可以很快完成部署。與此相比,桌面端的 Deepseek 部署要簡單得多。桌面端不需要建立額外的環境,Windows 和 Mac 端的步驟大致相同,因此本文將重點介紹如何通過本地 Deepseek R1 模型在 Mac 端搭建自己的知識庫。
下載 Ollama 模型
首先,訪問 Ollama 官網,選擇並下載適合 Mac 系統的版本。下載完成後,按照提示完成安裝,安裝後將解壓得到的 Ollama 程式拖動到“應用程式”中。

接著,打開 Mac 系統的“終端”應用(Windows 用戶則打開 CMD),在終端中輸入需要下載的 Ollama 模型對應的代碼。具體的代碼可以參考 Ollama 官網提供的說明。如果電腦配置較強,可以選擇下載較大的模型版本。


需要注意的是,如果在下載過程中發現下載速度變慢,可以關閉當前的“終端”窗口,再重新打開並輸入相同的指令。這樣可以恢復更高的下載速度,並且下載進度會被保留,不會丟失。
搭建本地知識庫
完成 Ollama 模型的下載後,接下來是搭建知識庫。首先,訪問 “AnythingLLM” 官網,根據操作系統下載並安裝對應的版本。

安裝完成後,打開程式,選擇 “Ollama” 作為模型提供方,並選擇 “8b (依據電腦配置)模型”。進入下一步時,跳過郵箱填寫界面,直接創建一個新的工作區(Workspace)。



創建工作區後,進入到對話界面。接下來,點擊工作區 “Test001”的設置按鈕,進入“聊天設置”頁面。在聊天提示框中對 AI 助手進行一些基本設定,以便模型能夠更快速、更精準地回答用戶的問題。同時,可以設置回答語言為中文,並保存這些設置。

接下來,需要上傳並嵌入知識庫文件。小編通過 AI 創建了一家虛擬的遊戲公司,並將公司簡介整理成一個 Word 文檔。在準備好文件後,返回“Test001”工作區,點擊右側的上傳按鈕,將文件上傳至“My Documents”。選中該文件後,點擊 “Move to Workspace”,然後選擇 “Saved and Embed” 以保存文件,最後執行“Pin to Workspace”操作。這些操作都會有提示,確保每個步驟都正確完成。


測試和提問
知識庫搭建完成後,回到對話框,在工作區“Test001”中選擇 “New Thread” 創建一個新的對話框。此時,可以開始向模型提問與知識庫相關的問題。大模型將根據文檔內容做出準確回答,確保知識庫的內容能夠被有效利用。


(知識庫內容)

(AI 依據數據庫的核心人員回答)

總結
以上是手機端部署本地 Deepseek 的教程以及通過 Mac 端部署 Deepseek R1 大模型並建立本地知識庫的完整教程。從下載模型、搭建知識庫到最後的測試與提問,每一步都很關鍵,只要按照步驟操作,就能夠順利完成整個過程。希望這篇教程能夠幫助大家順利搭建屬於自己的本地知識庫,提升使用 AI 模型的效率和體驗。