面向生产环境的结构感知推理 RAG 系统,支持像素级精准引用与知识图谱多跳推理。
ForgeRAG 是由 deeplethe 组织开源的端到端 RAG 系统,主打结构感知推理与生产级可用性。后端基于 Python(FastAPI),前端采用 Vue 3,以 MIT 协议开源。
核心架构#
系统采用双推理检索机制:先利用 BM25 与向量检索进行预过滤,随后引入 LLM 树导航与知识图谱进行深度推理,最后通过 RRF(Reciprocal Rank Fusion)算法融合排序。知识图谱支持局部邻域遍历、全局跨语言关键词匹配以及关系语义搜索三级检索能力。在 UltraDomain 基准测试中取得了 55.48% 的整体胜率(对比 LightRAG),涵盖农业、CS、法律、混合领域。
数据流#
- 摄入阶段:文档上传 → PDF 解析(pymupdf/minerU/minerU-vlm)→ 分块 + LLM 树结构构建 → 实体/关系抽取 → 向量化嵌入 → 分布式持久化至关系型 DB、向量库、图存储、Blob 存储。
- 检索阶段:用户查询 → BM25 + 向量预过滤 → LLM 树导航 + KG 双级检索 → RRF 融合排序。
- 回答阶段:融合上下文 + KG 合成的实体/关系描述 → LLM 生成带
[c_N]精准引用标记的回答。
突出特性#
- 像素级精准引用:每个声明均带有引用标记,点击可精确跳转至源文档页面及高亮边界框,适用于合规/法务场景。
- 完整检索追踪:支持全链路检查路径评分、扩展决策和合并逻辑。
- 多格式文档摄入:原生支持 PDF、DOCX、PPTX、XLSX、HTML、Markdown、TXT,PDF 解析支持快速模式(pymupdf)、布局感知模式(mineru)及视觉语言模型模式(mineru-vlm,适用于扫描件)。
- 多轮对话:基于上下文对话历史进行连续追问。
- YAML 优先配置:单一
forgerag.yaml控制全部行为,消除隐藏运行时状态。 - Per-request 覆盖:通过
QueryOverrides按请求动态切换检索路径、top-k 及重排序策略,适配 SDK 集成与 A/B 测试。
适用场景#
- 企业级多格式知识库问答
- 需要精确到页面边界框溯源的合规/法务场景
- 跨文档供应链式多跳关联分析(如"哪些苹果的供应商同时也向三星供货?")
- RAG 架构的基线评估工具(内置 benchmark 模块)
部署与工程化#
支持本地开发与 Docker 部署两种方式,均提供交互式配置向导。支持多 Worker 横向扩展。前置条件:Python 3.10+、Node.js 18+(仅前端构建)、LLM API Key(兼容 LiteLLM),硬件建议 4+ CPU 核、8GB+ RAM(含 KG 提取的大文档需 16GB+)。
后端兼容性#
- 关系型数据库:SQLite(默认)、PostgreSQL、MySQL
- 向量存储:ChromaDB(默认)、pgvector、Qdrant、Milvus、Weaviate
- 图存储:NetworkX 内存(默认)、Neo4j
- Blob 存储:本地文件系统(默认)、Amazon S3、阿里云 OSS
- LLM / Embeddings:全量兼容 LiteLLM 支持的提供商(OpenAI、Azure、Anthropic、Ollama、DeepSeek、Cohere 等)
关键 API 端点#
| 端点 | 说明 |
|---|---|
POST /api/v1/query | 提问(SSE 流式或同步),支持 path_filter + overrides |
POST /api/v1/documents/upload-and-ingest | 上传文档并摄入 |
GET /api/v1/documents | 列出文档 |
GET /api/v1/documents/{id}/tree | 获取文档层级结构 |
GET /api/v1/graph | 知识图谱可视化 |
GET /api/v1/settings | 只读配置快照 |
交互式文档:Swagger UI /docs,ReDoc /redoc。
待确认信息#
deeplethe组织及 DeepLethe Team 的具体背景未在仓库中详细说明- 未提供独立学术论文链接
- Roadmap 无具体时间节点
- 未提供公开的生产使用案例或客户参考
采用 MIT 协议,Copyright (c) 2025 DeepLethe Team and contributors。