单位日常运营中积累了大量文档(制度、手册、报告、技术资料等),传统关键词搜索难以理解语义、准确命中相关内容,人工翻阅效率低。大模型虽能对话,但缺乏对私有知识的访问能力,易产生幻觉或偏离事实。本项目旨在构建一套**本地化、可部署**的 RAG 方案,打通「私有文档 → 语义检索 → 大模型生成」链路。
点击空白处退出提示
单位日常运营中积累了大量文档(制度、手册、报告、技术资料等),传统关键词搜索难以理解语义、准确命中相关内容,人工翻阅效率低。大模型虽能对话,但缺乏对私有知识的访问能力,易产生幻觉或偏离事实。本项目旨在构建一套**本地化、可部署**的 RAG 方案,打通「私有文档 → 语义检索 → 大模型生成」链路。
1.功能模块
文档解析 支持 docx / pdf / txt / md
文本分块 段落分块、固定长度、重叠
向量化 BGE 中文模型(FastEmbed)
向量存储 ChromaDB 本地持久化
语义搜索 向量相似度检索
RAG 聊天 检索增强 + 大模型问答
Agent 模式 工具调用(搜索、时间、计算)
配置管理 模型、API、Agent 配置
Web 界面 对话、知识库、设置页面
2.主要功能描述
RAG 智能问答:上传文档 → 语义检索 → 生成回答
Agent 与工具:自动选择并执行搜索、时间、计算等工具
多模型支持:Ollama 本地、智谱 GLM、OpenAI 兼容 API
知识库管理:上传、解析、分块、检索一体化
本地部署:数据本地存储,可完全离线使用(Ollama)
整个项目从开始到结束由我本人独立自主完成设计、开发工作。
本项目为基于 Python + FastAPI 的本地 RAG 应用,采用 FastEmbed(BGE 中文模型)与 ChromaDB 实现文档向量化与语义检索。支持 docx/pdf/txt/md 上传,按句段分块并保留重叠以维持语义连贯。实现亮点:RAG 与 Agent 双模式可切换,Agent 支持知识库搜索、时间、计算等工具;多模型接入(Ollama、智谱 GLM、OpenAI 兼容)。难点与应对:BGE 检索需为 query 加前缀;Agent 工具调用需兼容 OpenAI 格式;部分网络环境需关闭 SSL 或配置代理。





评论