LangChain 概览
LangChain = 一套现成的 Agent 架构 + 丰富工具/模型封装的开源框架,用极少代码就能把“大模型 + 工具 + 工作流”串成可落地的应用。
“用 LangChain,把 LLM 变成能干活的工程能力”。
与 LangGraph 的关系
-
LangChain:做“开发体验”
- 快速搭 Agent、接模型、接工具
- API 友好,学习成本低,适合「先跑起来」
-
LangGraph:做“执行与编排”
- 负责复杂流程编排、长流程执行、状态管理
- 适合「需要可控、可恢复、可监控的 Agent 工作流」
-
两者关系:LangChain 用 LangGraph,当底座
- LangChain 里很多 Agent 能力,其实是基于 LangGraph 实现的
- 因为有 LangGraph 底座,才具备:长流程、持久化、人机回环、流式输出 等能力
- 但入门阶段可以只用 LangChain,不必先啃 LangGraph
LangChain 负责“好写”,LangGraph 负责“好跑 + 好管控”。
创建 Agent
# pip install -qU langchain "langchain[anthropic]"
from langchain.agents import create_agent
def get_weather(city: str) -> str:
"""Get weather for a given city."""
return f"It's always sunny in {city}!"
agent = create_agent(
model="claude-sonnet-4-5-20250929",
tools=[get_weather],
system_prompt="You are a helpful assistant",
)
# Run the agent
agent.invoke(
{"messages": [{"role": "user", "content": "what is the weather in sf"}]}
)
四大核心价值
-
统一模型接口
- 不管是 OpenAI、Anthropic 还是国产大模型
- 调用方式尽量长得一样,可以随时换模型,减少厂商锁定
-
帮你把 Agent 搭起来
- 自带一套可用的 Agent 思路和组件
- 少写逻辑,多用组合,同时又保留可扩展、可自定义
-
底层有 LangGraph 托底
- 支持:长会话、长任务、流程编排、人机回环、流式输出
- 你写的是 LangChain 代码,享受的是 LangGraph 的稳定与可控
-
LangSmith 调试与观测
- 能看到每一步调用了什么、Agent 为什么这么决策
- 方便排查「大模型为什么又乱说话了」这种问题
LangChain 帮你:接模型、接工具、搭 Agent、管流程、看运行。