本週 AI 項目推薦|Mem0, Memories.ai……AI 記憶大爆炸

作者|黃小藝

郵箱|huangxiaoyi@pingwest.com

本週的AI項目推薦,我們聚焦在AI Memory這個領域。這是一個還沒有被太多目光注意到,但已經在融資動作和產品更新上呈現出「起飛」態勢的方向。

一批名為Mem「X」的算法框架及產品,正在加入模型上下文的戰爭。

隨著大模型被推嚮應用場景,一個根本性問題日益凸顯:如何有效管理和記憶長上下文。無論是實現連貫的多輪對話,還是構建能長期服務用戶的個性化Agent,記憶的積累與調用都是核心。於是,在當前大模型的上下文限制下,RAG也好,Agent也好,都在某種程度上嘗試提出補償方案。

而現在,10000個AI記憶框架也來了:Letta(MemGPT)、Mem0、MemU、MemOS……他們直接將記憶轉化成一套可獨立設計的工程體系,支持智能篩選信息、結構化存儲、高效檢索,為大模型裝上了可插拔、可優化的「記憶外掛」。

對AI初創而言,這也是一個絕佳的切入點:記憶是大模型實現真正可用性的剛需所在,而目前技術路線和應用場景差異化明顯、競爭格局遠未固化,且資本投資熱度頗高。

我們整理了市面上主流的AI記憶算法框架、產品及其融資情況,也看看它們之間到底有什麼區別。

Mem「X 」混戰

Letta:https://github.com/letta-ai/letta

Letta由加州大學伯克利分校的實驗室孵化而成,項目最早在 GitHub 以 MemGPT名義開源,後更名為 Letta,截止目前有19K星。

MemGPT的核心是一個記憶管理流水線,也是記憶領域的元老級框架。

其論文顯示,它將上下文劃分為 Main Context(主上下文,即提示詞) 與 External Context(外部上下文)‍,允許LLM 通過MemGPT 來管理其自身的上下文,將不太相關的數據從主上下文(提示詞)中移除並存儲到外部上下文中,同理,也可以將相關的外部上下文召回到主上下文,從而實現信息在兩者之間的遷移,讓記憶持久化和即時可用[1]。

詳細來說,基於上圖,當用戶的輸入進入後,該消息首先由隊列管理器(Queue Manager)處理,放入先進先出隊列(FIFO Queue)中,這是一個簡單的時序處理邏輯。如果此時上下文窗口接近飽和,隊列管理器會自動將隊列中最舊的消息轉移到回憶存儲(Recall Storage)中進行備份,以確保有足夠的空間容納新信息。

隨後,LLM 會讀取其完整的有限上下文,包括固定的系統指令、可變的工作上下文以及更新後的消息隊列,並基於這些信息進行「思考」,如果LLM能直接回答用戶,就會生成一段文本回覆。

但如果它判斷需要利用長期記憶,比如查詢用戶的職業,它就會生成一個函數調用,由Function Executor(函數執行器)捕獲並執行,Function Executor會與Archival Storage(歸檔存儲)交互,或調取回憶存儲(Recall Storage)的記憶,檢索所需信息,將結果,寫回到 LLM 的工作上下文中。

這個更新操作相當於為 LLM 提供了一條新的關鍵信息,觸發它進行新一輪的思考,生成一個更具個性化和上下文感知能力的回覆,完成交互閉環。

2024年,Letta獲得了1000萬美元的種子資金,領投 Felicis Ventures,投資人包括矽谷大佬Jeff Dean,2025 年持續迭代,推出 Letta Cloud(託管版)、本地 Docker與桌面版三種部署方式。

Mem0:https://github.com/mem0ai/mem0

定位為「AI智能體的通用記憶層」,與 MemGPT 的區別在於,用戶的輸入進入時,會和已有記憶進行相似性查詢,融合、關聯記憶,並調用工具操作,保持數據庫的更新,而不是簡單的先進先出的時序整理。

Mem0在GitHub已獲得 42.6K 星,Python 包下載量達 1400 萬次。API 使用量呈指數級增長,從第一季度的 3500 萬次調用增長至 2025 年第三季度的 1.86 億次,成為了AWS新Agent SDK的記憶提供方。

論文顯示,主要架構有 Mem0 和MemOᵍ兩種互補的記憶架構[2]:

其中,Mem0的架構概覽如下,在提取階段,處理消息和歷史上下文,以創建新的記憶;更新階段將這些提取的記憶,與類似的現有記憶進行比較,並通過Tool Call進行相應的操作,例如增加、更新、刪除、不操作。數據庫作為中央存儲庫,為處理和存儲更新後的記憶提供上下文,適合單跳和多跳推理任務。

MemOᵍ基於圖的擴展,提取階段使用 LLM 將對話消息轉換為實體和關係三元組,更新階段將新信息集成到現有知識圖譜,並採用衝突檢測和解決機制。論文顯示,該架構在時間域和開放域任務中顯著提升了性能。

2025年10月底,Mem0宣佈獲得了2400萬美元的融資,由Kindred Ventures 領投種子輪,Basis Set Ventures 領投 A 輪,其他參與者包括 Peak XV Partners、GitHub Fund 和 Y Combinator。

MemU:https://github.com/NevaMind-AI/memU

前豆包和貓箱 Memory 算法負責人陳宏創辦,定位為「為AI伴侶設計的下一代代理記憶系統」。MemU支持文本、圖像、音頻等多種數據類型,提供雲、企業和社區自託管三種模式。項目於 2025 年 8 月發佈,已在 GitHub 獲得2.8K星,側重AI角色扮演、虛擬偶像等場景。

MemU 設計理念的核心在於「基於Agent的記憶文件組織方式」 。

在記憶提取階段,MemU會將各個記憶項根據其類別,分組到專用的文檔文件中,提供自主記憶代理,能自動決定何時記錄、修改、歸檔或遺忘信息。每⼀條記憶也會被視作更⼤知識圖譜中的節點。系統會⾃動檢測不同時間、不同模態間的聯繫,構建出⼀個可動態演化的「經驗⽹絡」,像超鏈接⽂檔⼀樣可以被檢索和遍曆[4]。

相當於融合了Mem0的兩個架構,會按類型把信息劃分為文件,且同時會對文件中的具體信息進行跨文件的關聯,而總體上,再由一個自主的Agent,基於一定規則來整理。

Memobase:https://github.com/memodb-io/memobase

和MemU一樣是基於文件的組織方式。Memobase專注「基於用戶畫像的長期記憶」,定位是為聊天機器人、AI伴侶等應用打造「用戶檔案庫」,支持 Profile和Event雙線記憶管理,並即將推出Schedule、Social 兩類新的記憶結構[5],在GitHub上有2.3K星。

Memobase強調對性能、成本和延遲的平衡,通過為每個用戶建立緩衝區來批量處理對話,確保在線響應速度低於100ms[5]。

除了應用於AI伴侶場景,還可以應用在教育等場景,例如通過記住個人的學習進度、偏好和優勢,專門針對教育環境中的記憶功能進行配置,使其能夠更專注於學生的錯誤答案、標準化考試成績和學習習慣。

MemOS:https://github.com/MemTensor/MemOS

MemOS 認為,「記憶」作為一個獨立系統層,和計算、存儲一樣,是AI 應用的基礎能力。它的整體架構可以概括為三層: API 與應用接口層、記憶調度與管理層、記憶存儲與基礎設施層,更注重面向企業級的系統化記憶管理。

據其公開技術文檔及論文顯示[6]:

在API 與應用接口層,MemOS 提供了標準化的 Memory API,開發者可以通過簡單的接口實現記憶創建、刪除、更新等操作,支持多輪對話、長期任務和跨會話個性化等複雜應用場景。

在記憶調度與管理區層,別於其他記憶結構,其核心差異在於從記憶建模的視角出發,提出了記憶調度範式——通過設計異步調度框架,提前預測模型可能需要的記憶信息,例如用戶正值旅遊階段,有關旅遊的記憶和安排會提前被激活,從而降低實時生成中的效率損耗。

在記憶存儲與基礎設施層,MemOS通過標準化的 MemCube 封裝,將明文記憶、激活記憶和參數記憶(又分為內、外兩種參數記憶,內參數記憶即微調進大模型)三種形態有機整合[7]。

如圖所示,在這個環節,它還提供了記憶的過期策略、不同用戶的訪問控制、隱私保護、水印服務等合規設定,並支持多種持久化存儲方式,包括 Graph 數據庫、向量數據庫,甚至構想了記憶的商業生態(MemStore),讓記憶本身成為可以流通的商品。

總體而言,其核心思想是將AI的記憶像企業級數據一樣進行專業化管理,通過分層解耦,區分了不同狀態的記憶(內在/外在,激活/持久化),將記憶的應用、調度、治理、存儲分開。

MemOS背後的企業是記憶張量,2025年6月記憶張量宣佈完成了由孚騰資本、算豐信息、中金資本等知名機構共同投資的近億元天使輪融資。

Memories.ai:

專注視覺記憶。成立於 2024 年,由前 Meta Reality Labs 的華人研究科學家Shawn Shen與Ben  Zhou聯合創立,能為 AI 提供持久、可檢索的視覺記憶層。

Memories.ai已經推出了LVMM 1.0(Large Visual Memory Model)和LVMM 2.0 兩種架構。

其中,LVMM 1.0將影片流解構為影片畫面、語音、文本、元數據四個維度。在畫面解析上,又拆分成框架結構、物體識別、動作理解、事件序列等結構化數據層,把影片解讀並存儲成更詳細的數據,具體到每個片段幀的圖文描述,把拆分好的結果存進數據庫,並進行向量化和知識圖譜,方便用戶query來了進行索引[8]。

在近日,Memories.ai又推出了LVMM 2.0,並宣佈了與高通合作,從 2026 年開始在高通處理器上本地運行,使消費者和企業能夠在其設備上安全、快速地搜索和分析視覺時刻。

Memories.ai 的 LVMM 2.0 通過將原始影片轉換為設備上的結構化記憶,對幀進行編碼、壓縮,並構建支持亞秒級搜索的索引。用戶可以用通俗易懂的語言提出複雜的問題或使用圖像提示,然後跳轉到確切的時刻。在高通處理器上本地運行可降低延遲、降低雲成本並將數據保持在本地以增強安全性,即使在網絡邊緣也能可靠地執行。

2025 年7 月,Memories.ai完成 800 萬美元種子輪融資,領投方為 Susa Ventures,跟投包括 Samsung Next、Crane Venture Partners、Fusion Fund、Seedcamp、Creator Ventures等。

Zep AI:https://github.com/getzep

Zep AI,一種面向Agent的新型記憶層服務,由其開發的Graphiti開源框架提供支持。Graphiti 是一個時間知識圖譜框架,用於處理不斷變化的關係並維護歷史背景,其獨特之處在於它能夠自主構建知識圖譜,同時還能推理狀態隨時間的變化。每個事實都包含 valid_at 和 invalid_at ,這使得智能體能夠追蹤用戶偏好、特徵或環境的變化[9]。截止目前,在GitHub上,Zep有3.7K星,Graphiti有19.7K星。

Zep AI 在 2024 年 4 月 完成了約 50 萬美元的種子輪融資,領投方為 Y Combinator。

Second-Me (by Mindverse):https://github.com/Mindverse/Second-Me。

Second‑Me 是 Mindverse 打造的 AI 身份模型,核心在於本地隱私訓練、持續記憶對齊、開放生態,主張「訓練你的AI自我」,通過分層記憶模型(HMM)和自我對齊算法,使記憶能夠隨用戶行為持續更新、保持一致性旨在捕獲你的身份、理解你的情境,強調100%的隱私和控制權。

圖中,記憶的L0~L2分別指的是:

L0:原始數據層。該層類似於將RAG等直接應用於原始數據,將記憶定義為所有非結構化數據。

L1:自然語言記憶層。該層包含可以用自然語言形式概括的記憶,例如用戶的簡短個人簡介、重要句子或短語列表以及偏好標籤。

L2:AI 原生記憶層。該層代表那些無需自然語言描述的記憶。相反,這些記憶通過模型參數進行學習和組織。

區別於其他「記憶文件外掛」,Second‑Me提出了首個基於個人文檔記錄的全自動後訓練流程,構建了一個多層混合系統。

Supermemory:https://github.com/supermemoryai/supermemory

Supermemory 是一套面向AI應用的通用記憶 API,通過自研向量數據庫、內容解析器、知識圖譜以及豐富的 SDK/Connector[10],幫助個人和企業實現跨會話、跨模態、可持久的記憶,GitHub上獲得13.2K星。

其特點是:

  • 支持導入文本、文件和聊天記錄(支持多模態,包括文本、圖像、文件、鏈接、影片幀);

  • 模擬人腦實際運作方式,包括智能遺忘、衰退、近因效應、語境重寫等,進行重新排序結果。

  • 構建一個能夠捕捉「記憶」(模式、見解、背景)的知識圖譜 。

舉個例子,在以下場景中:

RAG會檢索語義上最相似的文本,但會忽略了時間進程和因果關係。

而通過時序知識圖譜,Supermemory會跟蹤事實何時失效,並理解因果鏈。

創始人Dhravya Shah年僅 19 歲。2025 年10月,Supermemory完成了約260萬美元種子輪融資,由 Susa Ventures、Browder Capital、SF1.vc 領投。

不存在絕對「正確」的路線,記憶框架的進化剛開始

從根本上看,當下的AI記憶框架(Mem「X」)是RAG方案的進化產物。它們的核心身份仍然是一個外部記憶API,但其職責不再是簡單地提供事實知識庫,而是像人腦一樣,對原始信息進行處理、切割與重組,然後將消化過的「記憶」作為上下文,供大語言模型(LLM)或智能體(Agent)調取。

這種「記憶與處理分離」的架構,模擬了人腦中記憶存儲區與邏輯處理區的分工,優雅地解決了LLM上下文窗口有限的難題。

然而,這也是一把雙刃劍。由於記憶以API形式提供,且目前的記憶的處理更像是簡單的切割和索引,主流平台又普遍支持記憶的遷移與備份,客戶的切換成本相對較低,這使得市場難以形成絕對的「護城河」。

另一方面,這也意味著這是一門高度工程化的B端服務業務。 客戶對記憶方案的評估維度極為細分——價格、延遲、準確性、關聯度、安全性,且效果反饋週期長。不存在一個「最好」的方案,只有「最適合」的方案。正是這種多樣化的需求,催生了當前記憶框架在技術路線上的分野。

打個比方,如果LLM有限的上下文是計算機的「物理內存(RAM)」,外部存儲是「硬盤(Hard Drive)」,那麼不同的Mem「X」框架,就是針對不同場景設計出的「內存調度系統」。它們都在回答同一個核心問題:記憶應該如何被組織和調度,才能最準確高效地在「硬盤」和「內存」之間換入換出?

目前,主流的記憶框架可以歸結為三大類:

一類是將記憶管理設定為一種操作系統行為。

此路線將記憶管理視為一種宏觀的、動態的系統行為。以 MemOS 為例,它會主動「整理」全部記憶,將其區分為不同狀態(如明文記憶、激活記憶),並引入一個預測性調度框架。根據當前對話和用戶畫像,它能提前將可能需要的記憶「預加載」到準備區。這種方案的優勢在於處理大規模、高併發的企業級記憶場景,追求整體的調度效率。

第二類是將記憶轉化為知識圖譜的「關聯網絡」,Zep AI、Supermemory、MemOᵍ、Memories.ai都或多或少地提供了這一服務。

此路線的擁護者認為,記憶的力量在於關聯。它們致力於將離散的記憶片段(「用戶喜歡咖啡」)結構化為實體、屬性和關係的「關聯網絡」。這使得AI能夠進行更複雜的邏輯推理。

例如,Zep AI 強調時間維度,能更新「用戶上週喜歡咖啡,但這周失眠不能喝了」這類動態關係;而 Supermemory 則利用LLM自動從對話中提取關係,構建自增長的記憶網絡。這條路線的記憶更新處理成本相對較高,更適合需要深度邏輯和狀態追蹤的場景。

第三類則是通過文件系統(File System),將記憶視為「歸檔資料」。例如,MemU、Memobase,更側重於記憶的組織、分類和應用。

此路線將記憶視為需要精確組織和分類的「歸檔資料」。例如,Memobase 將用戶的靜態偏好和動態經歷分開,以清晰的數據架構換取更低的檢索延遲。而 MemU 的獨特之處在於引入了一個自主記憶代理(Agent)來扮演「檔案管理員」,讓Agent來管理記憶,而非簡單地讓記憶服務於Agent。

此外,還存在如 Second-Me 這樣的混合路線,它通過「全自動後訓練」,將部分記憶特徵直接「刻進」模型參數中,實現了「外掛」與「內化」的結合。

這些路線並非完全互斥,許多項目正在融合多路線的優點。但更關鍵的趨勢在於,記憶框架的「管理者」正在變得越來越聰明,從而避免被替代,形成數據的飛輪。

此前,以MemGPT為代表的初代框架,更像一個按固定規則整理書籍的「機械圖書管理員」,其管理邏輯是工程化的、靜態的。而2025年湧現的新框架,如MemU和MemOS,則越來越多地在記憶管理中引入AI或Agent,使其成為一個能根據用戶動態畫像和上下文,自主學習和優化整理策略的「智慧圖書管理員」。

這種從「索引API」到「自主管理」的進化,是AI記憶框架的競爭焦點,即從基礎的工程實現,轉向如何構建一個更智能、更高效的記憶Agent體系。

2026年,關於記憶的框架進化和競賽,才剛剛開始。

參考資料:

[1]MemGPT: Towards LLMs as Operating Systems

[2]Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory

[3]Overview – Mem0 https://docs.mem0.ai/cookbooks/overview

[4]MemU Documentation – Complete Guide for AI Memory Integration

[5]What is Memobase? – Memobase

[6]MemOS: A Memory OS for AI System

[7]MemOS算法原理概述 https://memos-docs.openmem.net/cn/overview/algorithm

[8]Introduction | Memories.ai

[9]ZEP: A TEMPORAL KNOWLEDGE GRAPH ARCHITECTURE FOR AGENT MEMORY

[10]How Supermemory Works – supermemory | Memory API for the AI era