所有AI工具共享持久私有記憶,OpenMemory MCP殺瘋了!
今天給家人們分享一個實用的MCP Server - OpenMemory MCP。簡單來說,他就是給AI提供一個持久記憶、跨平臺、跨會話的一個神器。
https://github.com/mem0ai/mem0 mem0是個老項目,它的簡介是這么說的:
Mem0(“mem-zero”)通過智能記憶層增強 AI 助手和代理,實現個性化 AI 交互。它記得用戶偏好,適應個人需求,并隨著時間的推移不斷學習——非常適合客戶支持聊天機器人、AI 助手和自主系統。
具體的原理,大體是遵循一個RAG的策略。會通過一個大模型(默認4o-mini)來獲取一些記憶,在運行過程中通過向量數據庫來檢索記憶。
數據是完全私有的,在本地運行,隱私有保障~
上周新推出了OpenMemory MCP,號稱是跨平臺、跨工具的記憶輔助神器,直接可以通過MCP Server的形式插到任意的工具上,讓工具之間可以記憶共享、可以持久性的保存記憶! 還可以通過頁面端儀表盤快速瀏覽記憶、檢索記憶、管理記憶。
簡單實戰一下
這里演示一下如何本地化部署。
準備工作,把代碼拉下來。
git clone <https://github.com/mem0ai/mem0.git>
cd openmemory
export OPENAI_API_KEY=your_api_key_here
配環境、構建鏡像、啟動服務
make env
make build
make up
如果這里完成了之后,就可以在Docker Desktop看到容器了。
接下來,啟動前端Dashboard:
make ui
然后訪問 http://localhost:3000 就能看到你的OpenMemory儀表盤啦!儀表盤會貼心地為你生成接入MCP客戶端的命令。比如,要在Cursor里使用,大概會是這樣一條命令:
npx install-mcp i http://localhost:8000/mcp/YOUR_USER_ID/sse --client cursor
配置到MCP clent中,可以看到成功亮綠燈。
有4個工具
- add_memories(text) : 寫
- search_memory(query) : 搜
- list_memories() : 顯示所有
- delete_all_memories() : 清除記憶。
所有響應都通過同一個 SSE 連接流式傳輸??刂婆_顯示所有活躍連接,哪些應用程序正在訪問內存以及讀取/寫入的詳細信息。
可以看到和搜索記憶來源等詳細信息。
當你在Cursor之類的MCP Client里交互的時候,比如讓它“記住我的編程偏好是Python,喜歡用dark mode”,這些信息就能通過add_memories()存入OpenMemory。下次提問時,AI就能通過search_memory()調取這些記憶,變得更懂你~
最后
雖然可能這種基于RAG的,很多家人們玩膩了。
不過最近官方封裝成MCP,進一步讓這個門檻降低了,MCP就是人人可用的一個東西。
當AI Agent擁有記憶...
其實能開很多的腦洞,比如編程助手可以記錄編碼習慣、常犯的錯誤。當下次遇到這些問題時,可以給出更精確的建議。
最后,對這個項目感興趣的家人們,可以研究一下。讓你的AI Agent也擁有“過目不忘”的超能力吧!
本文轉載自??????探索AGI??????,作者:獼猴桃
