主导设计并开发了一个企业级知识库智能问答系统,将 RAG (检索增强生成) 技术与 LoRA (低秩适应) 微调相结合。该系统支持从文档上传、向量化存储、智能问答到模型持续优化的完整闭环,为企业提供了一个私有化部署、可定制化的知识管理AI助手。
点击空白处退出提示
主导设计并开发了一个企业级知识库智能问答系统,将 RAG (检索增强生成) 技术与 LoRA (低秩适应) 微调相结合。该系统支持从文档上传、向量化存储、智能问答到模型持续优化的完整闭环,为企业提供了一个私有化部署、可定制化的知识管理AI助手。
主导设计并开发了一个企业级知识库智能问答系统,将 RAG (检索增强生成) 技术与 LoRA (低秩适应) 微调相结合。该系统支持从文档上传、向量化存储、智能问答到模型持续优化的完整闭环,为企业提供了一个私有化部署、可定制化的知识管理AI助手。
核心职责与实现:
端到端 RAG 系统构建:
基于 LangChain 框架,实现了多格式文档(PDF/DOCX/TXT)的智能解析、分块、向量化与检索流程。
采用 FAISS 作为本地向量数据库,实现了知识库的持久化存储与快速相似性检索。
设计并实现了长期记忆机制,将历史问答以 JSON 格式存储并动态注入 Prompt,使 AI 具备上下文感知能力。
模型定制化与性能优化 (LoRA 微调):
针对企业垂直领域术语,利用 PEFT (LoRA) 技术对通用开源嵌入模型 (all-MiniLM-L6-v2) 进行微调,显著提升了特定领域知识的语义理解与检索准确率。
设计了 LoRA 训练与推理一体化流程:开发了从训练数据准备 (prepare_training_data)、模型微调 (train_lora_model) 到 LoRA 增强嵌入模型 (LoraEmbeddingsWrapper) 封装的全套工具链,支持模型的热加载与切换。
全功能一体化 Web 应用开发:
使用 Gradio 快速构建了功能完备的管理与问答前端,在一个界面内集成了知识库管理、智能问答、记忆管理、LoRA 微调和系统监控五大核心模块。
实现了知识库的增删查改、文档批量上传、动态切换、LoRA 微调任务提交与状态监控等全链路操作,极大降低了非技术用户的使用门槛。
工程化与系统设计:
设计了模块化的代码架构,将知识库配置、向量库操作、记忆管理、模型封装等功能清晰分离,确保了系统的可维护性和可扩展性。
实现了完整的本地持久化方案,所有数据(向量索引、配置、原始文档)均存储于本地,保证了数据安全与隐私,支持服务重启后状态无损恢复。
技术栈:Python, LangChain, HuggingFace Transformers, PEFT (LoRA), FAISS | Gradio, Py







评论