ComoRAG:面向长文本与多文档的认知启发式记忆组织RAG系统,突破传统RAG单步无状态限制,实现动态、迭代的叙事推理🧠
• 适用场景:长篇故事、多文档问答、信息抽取与知识图构建
• 核心理念:推理-探查-检索-整合-解决,模拟大脑记忆动态交互,支持状态化长篇叙事理解
• 技术融合:多种LLMs与本地/远程embedding模型,图增强检索与推理,灵活数据预处理与分块
• 迭代推理循环:遇阻即发起多轮探查查询,持续扩充全局记忆池,逐步形成连贯上下文
• 性能优势:在4个超长上下文基准测试(20万+ Token)中,相较强基线提升最高11%,特别擅长复杂全局认知任务
• 设计模块化且可扩展,支持多种评测指标(F1、EM等),适合科研和工业应用
• 两种运行ComoRAG 打破传统 RAG 单步检索的局限,采用类脑认知机制,实现长文档和多文档的状态化推理,显著提升复杂叙事理解能力。🧠
• 迭代推理循环:遇阻即发起多轮推理,动态交互记忆工作区,类似人脑记忆整合过程
• 针对性探查查询:每轮生成探针,精准挖掘新证据路径,避免信息冗余与遗漏
• 全局记忆池:持续整合新旧信息,构建连贯上下文,实现长期记忆式检索
• 多任务适用:支持长文QA、信息抽取、知识图谱构建,兼容多种LLM与本地/远程Embedding模型
• 图增强推理:结合图结构提升实体关系理解,助力复杂推理与知识融合
• 丰富评测指标:F1、EM等多维度量化模型表现,确保结果科学可靠
• 开源且模块化设计,支持灵活定制与扩展,适合科研与落地应用
实现细节涵盖Python 3.10+,支持OpenAI API和本地vLLM部署,满足速度、隐私及成本多样需求。相较传统RAG,在四大长文本基准上最高提升11%表现,针对长距离、动态多步复杂推理展现显著优势。
核心流程:Reason → Probe → Retrieve → Consolidate → Resolve,重塑检索增强生成的认知深度。
• 适用场景:长篇故事、多文档问答、信息抽取与知识图构建
• 核心理念:推理-探查-检索-整合-解决,模拟大脑记忆动态交互,支持状态化长篇叙事理解
• 技术融合:多种LLMs与本地/远程embedding模型,图增强检索与推理,灵活数据预处理与分块
• 迭代推理循环:遇阻即发起多轮探查查询,持续扩充全局记忆池,逐步形成连贯上下文
• 性能优势:在4个超长上下文基准测试(20万+ Token)中,相较强基线提升最高11%,特别擅长复杂全局认知任务
• 设计模块化且可扩展,支持多种评测指标(F1、EM等),适合科研和工业应用
• 两种运行ComoRAG 打破传统 RAG 单步检索的局限,采用类脑认知机制,实现长文档和多文档的状态化推理,显著提升复杂叙事理解能力。🧠
• 迭代推理循环:遇阻即发起多轮推理,动态交互记忆工作区,类似人脑记忆整合过程
• 针对性探查查询:每轮生成探针,精准挖掘新证据路径,避免信息冗余与遗漏
• 全局记忆池:持续整合新旧信息,构建连贯上下文,实现长期记忆式检索
• 多任务适用:支持长文QA、信息抽取、知识图谱构建,兼容多种LLM与本地/远程Embedding模型
• 图增强推理:结合图结构提升实体关系理解,助力复杂推理与知识融合
• 丰富评测指标:F1、EM等多维度量化模型表现,确保结果科学可靠
• 开源且模块化设计,支持灵活定制与扩展,适合科研与落地应用
实现细节涵盖Python 3.10+,支持OpenAI API和本地vLLM部署,满足速度、隐私及成本多样需求。相较传统RAG,在四大长文本基准上最高提升11%表现,针对长距离、动态多步复杂推理展现显著优势。
核心流程:Reason → Probe → Retrieve → Consolidate → Resolve,重塑检索增强生成的认知深度。