基于本地的LLM模型+Embedding数据向量化,实现对话式RAG检索,实现本地知识库
点击空白处退出提示
基于本地的LLM模型+Embedding数据向量化,实现对话式RAG检索,实现本地知识库
基于 RAG (Retrieval-Augmented Generation) 的本地知识库系统,使用 Ollama 运行本地 LLM 和 Embedding 模型。
https://github.com/AkitoZz/mycocDoc
后端
FastAPI - 高性能 Python Web 框架
PostgreSQL + pgvector - 数据库和向量存储
Ollama - 本地 LLM 运行时
前端
React 18 - UI 框架
React Router - 路由
Vite - 构建工具
Axios - HTTP 客户端
AI 模型
bge-m3 - 中英文 Embedding 模型 (1024 维)
qwen2.5:14b - 对话大语言模型




评论