当前位置: 首页 > ai >正文

构建一个“论文检索 + 推理”知识库服务,支持用户上传 PDF/LATEX 源码后,秒级检索并获得基于内容的问答、摘要、引用等功能

文章目录

    • 1 总体目标 / Overall Goal
    • 2 数据管线 / Data Pipeline
    • 3 检索策略 / Retrieval Strategy
    • 4 服务切分 / Service Decomposition
    • 5 Agent & Prompt 设计 / Agent & Prompt
    • 6 核心功能 / Core Features
    • 7 评测与监控 / Evaluation & Monitoring
    • 8 面试亮点 / Interview Selling Points


1 总体目标 / Overall Goal

ZH:构建一个“论文检索 + 推理”知识库服务,支持用户上传 PDF/LATEX 源码后,秒级检索并获得基于内容的问答、摘要、引用等功能。
EN: Build a “paper-RAG” service where users upload PDF/LaTeX, then get sub-second search plus content-grounded QA, summaries, and citations.


2 数据管线 / Data Pipeline

阶段关键动作 (ZH)Key Steps (EN)
采集S3/GCS 触发 RAGFlow ingestTrigger ragflow ingest on S3/GCS events
解析① PDF→markdown ② LaTeX→AST→markdown;补 bib 引用Parse PDF→md; LaTeX→AST→md; keep bib entries
分块400–800 tokens;公式单独切块并转为 $\LaTeX$ 字符串Chunk 400–800 tokens; isolate formulas
元数据title, authors, year, doi, venue, sec_titleRich metadata for filters
嵌入MCP-Embed service;BGE-Large-zh-v1.5 for CN/EN;可热插入 MiniLM、Llama-EmbedMCP-Embed; hot-swappable embedders
索引Infinity DB:Dense + BM25,enable_hybrid=trueHybrid index in Infinity DB

3 检索策略 / Retrieval Strategy

ZH

  1. Stage-1 召回
    • BM25:速命中关键词(算法名、公式编号)。
    • Dense:Cosine k=40 捕获语义同义。
  2. 融合score = 0.3·BM25 + 0.7·Dense,动态调参。
  3. 精排:BGE-Reranker-v2;如 GPU 紧张降为 MiniLM-L6。

EN

  1. Recall via BM25 & dense cosine (k = 40).
  2. Score fusion with 0.3 / 0.7 weights (tunable).
  3. Re-rank top-50 using BGE-Reranker-v2 (fallback MiniLM).

4 服务切分 / Service Decomposition

微服务作用 (ZH)Latency SLAEndpoint
MCP-Embed文本→向量≤ 20 ms/embed
MCP-SearchHybrid 检索+精排≤ 60 ms/search
MCP-Memory用户长/短期 KV≤ 5 ms/memory/{uid}
MCP-Summarise论文长文摘要≤ 3 s (async)/summarise

5 Agent & Prompt 设计 / Agent & Prompt

SYSTEM: 你是论文助手,只能基于检索结果回答。
TOOLS:search_papers(query:str, top_k:int=20)cite(paper_id:str, span:str)
CONTEXT:
{retrieved_chunks}
QUESTION:
{user_query}
GUIDELINES:
1. 如需更多资料务必调用 search_papers。
2. 引用时用 (Author, Year) 并列出 span。
  • 多轮 Function Calling:模型看不到答案→触发 search_papers→检索结果以 function 消息注入→模型生成最终答复。
  • Memory 写回:把对话摘要、兴趣主题存 MCP-Memory,下轮预填。
  • Chunk 过长:先走 LLM map-reduce 压缩,保证 < 8 K tokens 上下文。

6 核心功能 / Core Features

  1. 语义搜索 / Semantic Search
  2. 基于内容的问答 (RAG-QA)
  3. 自动摘要 & 中英对照翻译
  4. 引用追踪 (click-to-source spans)
  5. 相似论文推荐(Dense Only 模式)

7 评测与监控 / Evaluation & Monitoring

指标工具频率
nDCG@10 (BEIR-SciDocs)nightly auto-eval每晚
Faithfulness (QAG)Prompt-ed Llama-3 judge每晚
Latency P95Prometheus + Grafana实时
GPU 使用率NVML exporter实时

8 面试亮点 / Interview Selling Points

ZH

  • 端到端视角:能说清数据→检索→Agent→监控整链路。
  • 可替换组件:Embed/Rerank/LLM 全部热插拔,体现工程弹性。
  • 效能权衡:给出双检索、融合权重、GPU 回退策略,说明你懂成本。

EN

  • E2E vision: articulate full pipeline from ingestion to monitoring.
  • Pluggability: swap embedders, rerankers and LLMs—design for change.
  • Cost-latency trade-offs: hybrid search, dynamic weights, GPU fallback.

总结 / Wrap-up
我会先用 RAGFlow 搭建混合索引,MCP 服务封装嵌入与检索,Agent 通过 Function Calling 串起工具,实现秒级论文检索及推理;再用监控与评测闭环调优。这样既满足现阶段功能,也给后续模型或业务升级留足弹性。

http://www.xdnf.cn/news/9727.html

相关文章:

  • ChemDraw 2023|Win英文|化学结构编辑器|安装教程
  • Kotlin 中集合遍历有哪几种方式?
  • Xshell连接Linux时出现Warning:The remote SSH server rejected X11 forwarding request.
  • Linux---系统守护systemd(System Daemon)
  • 江西某石灰石矿边坡自动化监测
  • 【Linux 基础知识系列】第二篇-Linux 发行版概述
  • LVS +Keepalived高可用群集
  • 设计模式-工厂方法模式
  • 【Python 进阶】抽象基类(Abstract Base Class)
  • 编译原理笔记 2025/4/22
  • 容器(如 Docker)中,通常不建议运行多个进程或要求进程必须运行在前台
  • Linux系列-2 Shell常用命令收集
  • fingerprint2浏览器指纹使用记录
  • Spring框架学习day4--Spring集成Mybatis(IOC)
  • Vue 3 的路由管理
  • 小白成长之路-Linux日志管理
  • [MMU]IOMMU的主要职能及详细的验证方案
  • 3 分钟学会使用 Puppeteer 将 HTML 转 PDF
  • Axure设计案例——科技感渐变线性图
  • 不可变集合类型转换异常
  • Astra学习之-如何修改Header-logo和favicon图标
  • Linux | Shell脚本的基础知识
  • 基于ubuntu安装hadoop
  • .NET8入门:14.ASP.NET Core MVC进阶——Model
  • 前端高频面试题1:HTML/CSS/浏览器/计算机网络
  • 安装 Node.js 和配置 cnpm 镜像源
  • Java异常处理的全面指南
  • 基于通义千问的儿童陪伴学习和成长的智能应用架构。
  • Spring AI 之对话记忆(Chat Memory)
  • [网页五子棋][匹配模块]处理开始匹配/停止匹配请求(匹配算法,匹配器的实现)