详情介绍
你有没有遇到过这种情况——刚跟AI助手说完自己的饮食习惯,下一轮对话它又问你“喜欢吃什么”?这不是你表达不清楚,而是大模型天生“健忘”。每个对话窗口关闭后,AI就会把所有事情忘得一干二净,下次见面又是陌生人。
Mem0就是要解决这个问题。这个由前特斯拉AI平台负责人Deshraj Yadav和连续创业者Taranjeet Singh联合打造的开源项目,给AI装上了“长期记忆”的硬件。它的名字很有意思,“Mem-zero”读作“mem-zero”,寓意从零开始构建记忆系统。
Mem0的技术核心是一个混合存储架构。它不像传统方案那样简单地把对话历史全文塞给大模型,而是用大模型本身去“提取”和“理解”对话中的关键信息——用户的偏好、生活习惯、工作细节、讨厌的事情,然后把它们按照不同的维度存储起来。向量数据库负责做语义搜索,让你换个说法也能找到相关记忆;图数据库负责理清人物关系和事物关联;键值存储则用来快速提取那些确定的事实。
这个设计带来的效果相当惊人。在LOCOMO这个专门评估记忆系统的基准测试中,Mem0比OpenAI自己做的Memory功能准确率高出26%,响应速度快了91%,因为不用每次都把完整对话历史发给大模型,Token使用量减少了90%——这意味着真金白银的成本节约。
从商业角度看,Mem0的发展势头很猛。2025年10月,这家公司完成了2400万美元的种子轮和A轮融资,投资方包括Kindred Ventures、Basis Set Ventures、Peak XV Partners、GitHub Fund和Y Combinator。AWS更是直接把Mem0选为官方Agent SDK的独家记忆供应商。目前已经有超过8万开发者注册了他们的云服务,API调用量从2025年第一季度的3500万次飙升到第三季度的1.86亿次。
官网入口地址
下载地址
Mem0提供两种获取方式:
-
开源版:通过pip安装
pip install mem0ai,或者通过npm安装npm install mem0ai -
托管服务:直接在官网注册云账号使用
功能介绍
1. 多层级记忆架构
Mem0不是简单地把所有东西混在一起存。它区分了用户级记忆、会话级记忆和智能体级记忆。用户级记忆跨所有会话有效,比如“我喜欢喝美式咖啡”;会话级记忆只在当前对话窗口有效;智能体级记忆则可以让不同的AI应用共享同一个用户的记忆数据,实现跨应用的无缝体验。
2. 智能记忆提取
这是Mem0最核心的技术亮点。它内置了专门优化的提示词模板,当用户和AI对话时,Mem0会自动识别哪些信息值得记住。比如用户说“我每天早上七点起床,喝一杯黑咖啡然后开始工作”,系统会自动拆解出作息时间、饮食习惯、工作习惯等多个记忆条目,而不是把整句话原封不动存起来。
3. 记忆更新与版本追踪
人的偏好会变,记忆系统也得跟着更新。Mem0支持对已有记忆进行修改,当用户说“我现在不喝咖啡了,改喝绿茶”,系统会自动找到之前的咖啡偏好,要么更新要么标记为过时。它保留完整的记忆修改历史,你可以随时查看某个记忆是怎么演变的。
4. 混合存储引擎
Mem0同时使用三种存储技术来平衡效率和效果。向量数据库处理语义相似度搜索,让你用“想喝点热的”也能找到“喜欢热茶”这条记忆;图数据库处理实体关系,知道“张三”和“李四”是同事关系;键值存储用来存那些确定性的事实,比如“生日是1990年1月1日”。
5. 开发者友好的API
设计哲学是“三行代码搞定”。初始化、添加记忆、搜索记忆,核心接口就这三个。支持Python和Node.js两种主流语言,还提供了MCP协议支持,可以和Cursor、VS Code等开发工具直接集成。
6. 多模型支持
不挑模型,OpenAI、Anthropic Claude、Google Gemini、本地部署的Ollama都能用。开发者可以根据成本、速度、质量自由选择,记忆层解耦。
7. 云托管服务
不想自己搭服务器的,可以直接用官方托管版本。提供可视化后台管理、数据分析、企业级安全防护、自动更新,和开源版100% API兼容,切换无成本。
8. 浏览器插件生态
官方还做了一个Chrome扩展,可以在ChatGPT、Perplexity、Claude这些主流AI应用之间共享记忆。你在一个地方告诉AI的事情,换到另一个AI它也记得。
应用场景
-
智能客服系统:传统客服机器人每次都要用户重复描述问题,用Mem0后,它能记住用户之前报修过什么、有什么偏好、对处理结果满不满意,整个对话体验从“陌生人”变成“老熟人”。
-
个性化教育助手:在线学习平台可以用Mem0跟踪每个学生的学习进度、薄弱环节、偏好的讲解方式。AI导师会根据这些记忆调整教学内容,真正做到因材施教。
-
医疗健康管理:患者和健康助手的对话可以跨会话延续,系统会记住患者的病史、用药反应、生活习惯,提供更个性化的健康建议。
-
情感陪伴与心理咨询:这类场景对连续性要求特别高。Mem0能让AI记住用户上次聊过什么、情绪状态如何、生活中的重要事件,让陪伴体验更真实。
-
智能推荐系统:除了简单的点击历史,Mem0能理解用户对推荐内容的真实反馈,“推荐的这个我不喜欢因为太贵了”这种信息会被记住,影响未来的推荐策略。
-
生产力工具:代码助手的场景特别典型。Mem0可以记住开发者常用的代码风格、拒绝过的方案、偏好用的库,让AI助手越来越懂你的编程习惯。
定价模式
Mem0采用“开源核心+云服务”的模式:
-
开源版本:Apache 2.0许可证,免费,可以自己部署在任何地方
-
云托管版本:目前提供免费试用,企业版需要联系销售获取报价。根据TechCrunch的报道,超过8万开发者已经注册了云服务
mem0常见问题
Mem0由美国初创公司Mem0, Inc.开发,创始人是Taranjeet Singh和Deshraj Yadav。Deshraj之前是特斯拉Autopilot团队的AI平台负责人,Taranjeet则是连续创业者。公司总部在旧金山,已经拿到了2400万美元融资。
官网地址是https://mem0.ai 网站上有完整的产品介绍、技术文档、博客和定价信息。如果你想看代码,GitHub仓库在https://github.com/mem0ai/mem0
你可以把它理解成一个给AI用的“外部硬盘”或者“记事本”。大语言模型本身是“记不住”任何东西的,每次对话都是全新的开始。Mem0在中间加了一层,负责把重要的信息存下来,下次AI再和你聊天的时候,它会把相关的记忆调出来,让你感觉AI真的记得你是谁。它不是取代大模型,而是给大模型配的记忆系统。
用法特别简单,三行代码就能跑起来。先用pip安装mem0ai库,然后初始化一个Memory对象。之后每次用户说话,你调用memory.search找到相关的历史记忆,把这些记忆塞进提示词里发给大模型,再调用memory.add把这次对话中新的重要信息存进去。整个过程大概十几行代码就能搞定,官方文档里有完整示例。
开源版本是免费的,Apache 2.0许可证,你可以随便用随便改。官方也提供了云托管版本,那个是收费的,但具体价格要看用量和企业需求。云版本的好处是不用自己维护服务器、有可视化后台、还有企业级的安全保障。目前云版本可以免费试用。
这取决于你怎么用。开源版本你自己部署在自己的服务器上,数据由你控制,安全性取决于你自己的运维水平。云版本用的是主流云厂商的基础设施,数据加密传输和存储,符合企业安全标准。另外Mem0的设计天然适合本地部署,很多对隐私要求高的场景会直接把整个系统架在内网,数据根本不出去。
第一个技巧是善用metadata。存记忆的时候可以打标签,比如{"category": "preferences"}或者{"importance": "high"},这样搜索的时候能更精准。第二个技巧是合理设置user_id,这个字段用来区分不同的用户,千万别搞混了。第三个技巧是控制每次检索的记忆数量,一般3-5条最相关就够用,太多反而会干扰大模型。第四个技巧是可以结合向量数据库调优,用百度或者阿里云的向量数据库服务能提升检索效率。
特色是“记忆能自己进化”。它不是简单的存储和检索,而是会用大模型去理解哪些信息值得记住、新旧信息冲突时怎么处理、记忆之间有什么关联。第二个特色是跨应用共享,官方在推的“记忆护照”概念,让你在ChatGPT告诉AI的事情,换到Claude或者别的AI应用里它也能记得。第三个特色是开源,你不喜欢它的存储方式可以自己改。
数据安全性取决于部署方式。如果你用开源版本自托管,数据在你的服务器上,理论上只要你自己不泄露就安全。如果你用云版本,Mem0官方承诺数据加密,但毕竟数据经过他们的服务器,你要信任他们的安全措施。很多大公司选择自托管就是因为这个顾虑。另外Mem0支持你随时导出或删除某个用户的所有记忆,符合数据隐私法规的要求。
对于有Python基础的开发者来说非常好用。API设计得特别简洁,核心就add、search、get_all、delete几个方法,文档写得很清楚,还有各种框架的集成示例。PyPI上的下载量已经超过1400万次,GitHub上有4万多颗星,说明开发者社区很认可。对于不懂编程的人来说用不上,这东西是给开发者用的基础设施。
不能。Mem0不做内容生成,它是给AI做记忆存储的底层工具。你可以用它来增强一个PPT生成助手,让它记住你喜欢的排版风格、常用配色、讨厌的模板,但Mem0本身不直接生成任何PPT文件。
也不能。视频生成是大模型的能力范畴,Mem0是记忆层,它可以让视频生成AI记住你喜欢的风格、常用的角色设定、以前做过的视频主题,但它自己不生成任何视频内容。
没有传统意义上的长度限制。Mem0存的记忆是按条存储的,理论上可以存成千上万条。但实际使用时要注意,每次给大模型提供的记忆条数如果太多,会超出大模型的上下文窗口限制。所以官方建议每次检索只返回最相关的3-5条记忆,既保证效果又不会超长。
| 分享笔记 (共有 篇笔记) |