详情介绍
LangGraph是由LangChain Inc开发的智能体编排框架,灵感来源于Google的Pregel和Apache Beam,同时借鉴了NetworkX的接口设计理念。它诞生于开发者对更细粒度控制需求的回应——原始LangChain虽然适合快速入门,但抽象层级过高,无法满足生产级应用对复杂智能体逻辑的编排需求。
LangGraph的核心定位是低层级的抽象,它不封装提示词或预设架构,而是提供构建块让开发者自由定义智能体的行为逻辑。这种设计理念使能够支持从简单工具调用到复杂多智能体协作的各种场景。自2024年初推出以来,LangGraph已成为受欢迎的智能体编排框架之一,月下载量超过1200万次。
LangGraph可以独立使用,也可以与LangChain生态系统的他产品无缝集成。它提供Python和JavaScript两种语言版本,满足不同技术栈的开发需求。对于生产级部署,LangGraph Platform提供了完整的托管解决方案,包括可扩展的基础设施、任务队列、自动扩缩容和企业级安全管控。
官网入口地址
LangGraph官网入口网址:https://langchain-ai.github.io/langgraph/
下载地址
开源项目地址(Python版):https://github.com/langchain-ai/langgraph
开源项目地址(JavaScript版):https://github.com/langchain-ai/langgraphjs
npm安装命令:npm install @langchain/langgraph
pip安装命令:pip install langgraph
功能介绍
持久化执行:LangGraph的核心优势在于持久化执行能力。智能体任务往往需要运行数秒甚至数分钟,期间调用多个工具或等待人工反馈。LangGraph通过检查点机制自动保存每一步的执行状态,当遇到故障或超时时,可以从中断的地方无缝恢复,确保任务最终完成。
人机协作:在生产环境中,许多关键决策需要人工介入。LangGraph允许开发者设置中断点,在执行过程中暂停智能体,等待人工审核、修改或批准后再继续。状态的可检查性让开发者和运营人员能够随时查看智能体的思考过程和中间结果。
全面记忆系统:LangGraph区分短期工作记忆和长期持久记忆。短期记忆通过MemorySaver维护当前对话的上下文;长期记忆使用InMemoryStore或外部数据库存储跨会话的用户偏好、事实信息和行为模式。这种分层记忆架构使智能体能够真正“记住”用户。
调试与可视化:与LangSmith深度集成后,开发者可以可视化追踪智能体的完整执行路径,查看每一步的状态转换、工具调用和决策过程。运行时指标、成本分析和性能监控帮助团队持续优化智能体行为。
状态管理:LangGraph将智能体的状态视为一等公民。状态可以是消息历史、中间计算结果、用户上下文等任意结构化数据。每个节点更新状态,条件边根据状态变化决定路由方向,形成了灵活可控的执行流。
流式输出:支持多种流式模式,包括令牌级流式、自定义数据流式和生成式UI流式。用户可以看到智能体“思考”的过程,而不仅仅是最终结果,极大提升了交互体验。
突发流量处理:LangGraph Platform内置任务队列和水平自动扩缩容能力,能够吸收不可预测的流量高峰,确保每个请求都被可靠处理,不会因并发压力导致丢请求或性能下降。
多智能体协调:支持监督者架构、群体协作等多种多智能体模式。开发者可以构建由多个专门子智能体组成的系统,每个子智能体负责特定领域,通过协调层统一调度。
应用场景
客户支持智能体:像Klarna那样构建能够理解上下文、查询数据库、处理退换货的智能客服系统。智能体可以记住用户的购买历史和偏好,在多次交互中保持一致的服务体验。
代码生成与审查:Replit等平台使用LangGraph构建代码辅助智能体,能够理解项目上下文、调用外部工具执行代码、并根据反馈迭代优化。
深度研究助手:构建能够规划研究路径、搜索网络、阅读文档、综合信息的科研助手。这类任务往往运行时间长,需要持久化执行保证不中断。
企业工作流自动化:将LangGraph嵌入到ERP、CRM等企业系统中,创建能够理解业务流程、调用API、等待人工审批的自动化工作流。
个性化推荐系统:利用长期记忆能力,构建能够记住用户偏好、行为模式和历史交互的推荐智能体,实现真正的个性化体验。
数据分析与洞察:连接数据库,通过自然语言交互完成复杂的数据查询、分析和可视化。智能体可以规划查询步骤、执行SQL、解释结果。
教育辅导:构建能够理解学生学习进度、识别知识薄弱点、提供针对性辅导的教育智能体,支持长期跟踪学习效果。
补充信息
定价模式:LangGraph采用开源核心+商业平台的双层模式。开源的LangGraph框架遵循MIT许可证,免费可用于任何商业和非商业项目。LangGraph Platform提供三个计划:开发者计划(免费,每年100万节点执行限额)、Plus计划(基于用量计费,$0.001/节点执行,需配合LangSmith Plus订阅$39/用户/月)、企业计划(定制报价,支持私有化部署)。
开发公司:LangGraph由LangChain Inc开发,该公司由Harrison Chase于2022年创立。2025年10月,LangChain完成1.25亿美元融资,估值达12.5亿美元,投资方包括IVP、CapitalG、红杉资本等顶级机构。
安全可靠:LangGraph高度重视安全性。针对2025年11月披露的CVE-2025-64439漏洞(JsonPlusSerializer反序列化风险),团队已在langgraph-checkpoint 3.0版本中迅速修复。建议生产环境用户及时升级至版本。对于企业级敏感数据,LangGraph支持检查点信息加密持久化,满足数据安全和合规审计要求。
社区与学习资源:LangChain Academy提供免费的《Introduction to LangGraph》课程;官方文档包含完整的教程、示例和API参考;GitHub社区活跃,贡献者众多。
集成生态:可与LangChain、LangSmith、LangMem SDK、Redis LangCache等工具无缝集成,支持OpenAI、Anthropic、Azure等主流LLM服务商。
LangGraph常见问题
LangGraph是由LangChain Inc开发的。这家公司由Harrison Chase在2022年创立,最初是从一个开源项目起步,现在已经发展成为AI智能体基础设施领域的领先企业。他们在2025年10月完成了1.25亿美元的新一轮融资,公司估值达到12.5亿美元。
LangGraph本身是一个开发框架,没有直接面向终端用户的网页版入口。不过开发者可以访问官网文档网站https://langchain-ai.github.io/langgraph/ 获取学习资源、API文档和教程。如果你是Plus或企业用户,可以通过LangGraph Studio的Web界面进行可视化的智能体原型设计和调试。
LangGraph是一个专门用来构建AI智能体的底层编排框架。你可以把它想象成一个智能体的“操作系统”--它不像普通的编程框架那样封装好一切让你直接调用,而是给你提供构建块,让你能精确控制智能体的每一步该怎么走、怎么记忆、怎么恢复。它特别擅长处理那些运行时间长、需要记住上下文、需要人工介入的复杂AI任务。
使用LangGraph一般分几步走。你需要定义智能体的状态结构,就是它要记住哪些信息。然后定义工具函数,比如搜索数据库或调用API。接着创建节点,每个节点封装一部分智能体逻辑。再用边把节点连接起来,可以设置条件边让智能体根据情况选择下一步。编译这个图,添加检查点保存器就可以运行了。官方文档里有快速入门教程,照着敲一遍代码就能上手。
LangGraph是部分免费部分收费的模式。开源的LangGraph库采用MIT许可证,免费,你可以随便用于商业项目,自己部署运行。但如果你想要托管服务、自动扩缩容、内置的Web Studio这些企业级功能,就需要用LangGraph Platform。它有一个免费的开发者计划(每年100万节点执行),Plus计划按用量收费,每执行一个节点0.001美元,企业计划需要联系销售定制报价。
LangGraph在安全方面做得还是比较到位的。他们针对发现的漏洞响应很快,比如2025年11月披露的CVE-2025-64439漏洞,团队很快就发布了修复版本。对于企业级应用,LangGraph支持检查点信息加密存储,防止敏感数据泄露。LangGraph Platform还提供身份验证和授权机制,确保API调用的安全性。当然任何工具都不是绝对安全,建议生产环境及时更新版本,做好安全配置。
有几个实用技巧。一是充分利用检查点机制,即使不是必须中断的场景,保存状态也能帮你调试和回溯问题。二是结合LangSmith做可视化追踪,能看到智能体每一步在想什么,调优起来事半功倍。三是合理设计状态结构,别把所有东西都塞进状态,保持状态精简能提升性能。四是用语义缓存减少重复的LLM调用,比如用Redis LangCache缓存常见问题的答案,能省不少钱。五是多智能体场景下,别把所有能力塞给一个智能体,拆分成专门的小智能体更易维护。
LangGraph最有特色的几个功能。持久化执行是最实用的,任务跑一半挂了能自动恢复,这对长时间运行的研究助手类应用太重要了。人机协作也很独特,你可以在关键节点暂停智能体,等人工审核确认后再继续,适合需要风控的场景。还有那个全面的记忆系统,智能体能记住跨对话的用户偏好,下次回来还认得你。多智能体协调能力也不错,可以构建监督者带一群专业小智能体的架构。
这要看你怎么用。如果你自己部署开源的LangGraph,数据安全取决于你自己的防护措施,因为默认的检查点存储是明文的。不过你可以自己实现加密持久化,把敏感数据加密后再存。如果用LangGraph Platform的云服务,数据存储在LangChain的合规基础设施里,有身份验证和访问控制。企业版还支持数据平面部署在你的VPC里,敏感数据不出你的环境。总的来说保障措施都有,关键看你的配置。
好用不好用确实因人而异。如果你是需要精细控制智能体行为的技术团队,LangGraph的设计很贴合需求,状态机式的编程模型一旦理解透,写起来很顺手。如果你是刚入门AI开发的新手,会觉得学习曲线有点陡,建议先从LangChain快速原型,再过渡到LangGraph。大公司像Uber、LinkedIn、JP摩根都在用,说明它确实能解决实际问题。
LangGraph本身不直接生成PPT,但你可以用它构建一个会生成PPT的智能体。比如创建一个PPT助手智能体,给它配几个工具:内容生成工具调用LLM写大纲和文案,模板选择工具从模板库选样式,再配一个调用PPT生成API的工具。智能体先了解你要什么主题,规划好内容,然后一步步调用这些工具,把生成的PPT文件返回给你。这种需要多步规划和调用外部工具的场景,正是LangGraph擅长的。
和生成PPT类似,LangGraph不直接做视频渲染,而是帮你编排视频生成的工作流。你可以构建一个视频创作智能体,给它配备脚本生成、素材检索、配音合成、视频渲染等多个工具。智能体先根据你的主题写脚本,然后去找合适的图片视频素材,再合成配音,调用视频渲染服务。整个过程持续几分钟甚至更长,中间还需要你审核脚本或挑选素材,LangGraph的持久化执行和人机协作正好派上用场。
LangGraph本身没有强加对话长度限制,限制主要来自几个地方。一是底层LLM的上下文窗口大小,比如某些模型只能处理128K tokens,超了就会报错。二是你自己设定的状态存储容量,如果消息列表无限增长,迟早会撑爆内存或数据库。三是成本考虑,对话越长token消耗越多。实践中可以用总结或裁剪策略,把历史消息压缩成摘要存进状态,既保留上下文又控制长度。
| 分享笔记 (共有 篇笔记) |