个人介绍
主导开发了一套服务于企业技术支持团队的智能客户服务系统。该系统不仅是一个简单的问答机器人,更是一个能够自主处理复杂工单的 AI 代理。它能够理解客户意图,查询内部知识库,并执行多步操作来解决客户问题。项目基于 LangChain 1.2 框架构建,旨在提升客服效率,缩短问题平均解决时间。
核心职责与成就:
1、使用 LCEL 构建高效、声明式的核心链路:利用 LangChain Expression Language (LCEL) 的管道操作符(|),将“意图识别 -> 知识库检索(RAG) -> 上下文组装 -> 模型推理 -> 输出解析”这一核心问答流程编排成一条清晰、可维护的执行链。这种声明式写法不仅使代码结构更简洁,还天然支持了异步和流式执行,为后续的性能优化奠定了基础。
2、引入 LangGraph 编排复杂代理工作流:针对需要多轮交互和工具调用的复杂工单,采用 LangGraph 构建了基于状态机的代理工作流。定义了 State 来管理工单的全局上下文,通过节点(Nodes)和边(Edges)精确控制代理在“查询信息”、“调用工具”、“请求人工审核”等步骤间的流转,实现了处理逻辑的循环与分支,解决了传统 Chain 无法处理的复杂任务编排问题。
3、利用 Checkpointer 实现人机协作与断点续跑:集成 LangGraph 的 MemorySaver (Checkpointer) 机制,实现了工作流状态的持久化。当代理执行到需要人工介入的关键步骤(例如,处理敏感操作或需要上级审批时),系统会自动暂停并保存当前状态。客服人员可以在审核并批准后,让代理从断点处无缝恢复执行,极大地提升了自动化流程的灵活性和可靠性。
4、设计多层级容错机制保障服务高可用:为确保生产环境的稳定性,为核心 LLM 调用节点配置了健壮的容错策略。通过 with_retry 对网络抖动等瞬时错误进行指数退避重试;同时,利用 with_fallbacks 构建了“主模型 -> 备用模型”的故障转移链条,当主模型服务异常时自动降级,有效保障了服务 99.9% 的可用性。
基于 astream_event 实现细粒度流式交互:为优化用户体验,利用 astream_event 接口实现了前端与后端代理的实时通信。系统能够向客户端推送“正在思考”、“正在查询知识库”、“正在生成回复”等中间事件,并配合打字机效果逐字输出答案,显著降低了用户的等待焦虑,提升了交互的流畅度。
工作经历
2019-12-04 -2026-03-06百望股份资深java研发工程师
负责公司发票销项、进项核心业务的处理。负责公司内部知识库问答系统及面向客户的智能客服平台重构,基于Java生态整合开源大模型能力。
教育经历
2021-09-01 - 2024-07-01中国地质大学(北京)计算机科学与技术本科







