LangSmith 追踪与调试:给 Agent 装上可观测性
LangSmith 追踪与调试:给 Agent 装上可观测性
Agent 调用链越来越复杂,出了问题很难定位是模型的锅还是工具的锅。LangSmith 是 LangChain 官方的可观测性平台,能记录每次调用的完整链路。
开启方法
简单到难以置信。在 .env 文件里加一行:
LANGSMITH_TRACING=true
然后正常写代码就行:
from dotenv import load_dotenv
from langchain.chat_models import init_chat_model
load_dotenv()
model = init_chat_model(model="openai:gpt-4.1-mini")
response = model.invoke("Who are you?")
print(response.content)
每次调用都会自动上报到 LangSmith 后台。你可以在 Web 界面看到:
- 每次调用的完整输入输出
- token 用量和耗时
- 工具调用的参数和返回值
- 异常和错误信息
为什么需要追踪
Agent 的执行过程是非确定性的。同一个问题,模型可能走不同的工具调用路径。没有追踪,你只能看到最终结果,不知道中间发生了什么。
开发阶段用 LangSmith 调试问题,生产阶段用它监控性能和成本。
注意事项
LangSmith 有免费额度,个人开发够用。如果你不想用云服务,也可以自己部署 LangSmith 的开源版本。
不需要追踪的时候,把 LANGSMITH_TRACING 设为 false 就行,代码不用改。
小结
一行配置开启追踪,零代码侵入。对于复杂的 Agent 应用,可观测性不是锦上添花,是必需品。