Spring AI系列之RAG(检索增强生成)从原理到实战指南

Spring AI系列之RAG(检索增强生成)从原理到实战指南

Spring AI系列之RAG(检索增强生成)从原理到实战指南

在LLM(大语言模型)时代,如何让AI既拥有通用能力又具备专业知识?RAG技术给出了完美答案。本文将基于Spring AI生态,深入剖析RAG的核心原理、实现细节与优化策略。

一、为什么需要RAG?

在深入了解RAG之前,我们需要先认识传统LLM的局限性:

缺陷类型具体表现RAG解决方案
知识截止模型知识有截止日期,无法获取最新信息实时检索外部知识库
幻觉问题自信地生成看似合理但实际错误的内容基于检索到的真实信息生成
上下文限制长文本处理能力有限只检索最相关的上下文片段
领域专业度通用模型缺乏垂直领域深度知识外挂专业领域知识库

比喻理解:如果将LLM比作一个"高中毕业生",那么:

  • Fine-tuning(微调) = 让他花7年时间去医学院学习,然后成为医生
  • RAG = 给他配备了一群专业主任医师作为顾问,遇到问题时先咨询专家再作答

二、RAG核心架构解析

2.1 整体工作流程

RAG的工作流程可以分为两大阶段:离线索引(Indexing)在线检索生成(Retrieval & Generation)

RAG论⽂:https://arxiv.org/pdf/2312.10997

在这里插入图片描述


中文版本:

在这里插入图片描述

详细流程说明

  1. 索引阶段(离线)
    • 文档加载:从PDF、Word、Excel等格式中提取文本
    • 文本分割(Chunking):将长文档切分为适当大小的片段
    • 向量化(Embedding):使用Embedding模型将文本转为向量
    • 存储:存入Milvus、Redis等向量数据库
  2. 检索阶段(在线)
    • 查询向量化:将用户问题转换为向量
    • 相似度匹配:在向量空间中查找最相似的Top-K个片段
    • 重排序(Reranking):(可选)对检索结果进行精排
  3. 生成阶段
    • 上下文组装:将检索到的片段作为"已知信息"注入Prompt
    • LLM推理:模型基于提供的上下文生成答案

2.2 关键技术:Embedding与相似度计算

什么是Embedding?
Embedding是将文本、图像等转换为高维向量的技术。语义相似的文本在向量空间中的距离更近。

例如,⼆维空间中的向量可以表示为 (𝑥,𝑦),即表示从原点 (0,0) 到点 (𝑥,𝑦) 的有向线段

在这里插入图片描述
  1. 将⽂本转成⼀组浮点数:每个下标 i ,对应⼀个维度
  2. 整个数组对应⼀个 n 维空间的⼀个点,即⽂本向量叫 Embeddings
  3. 向量之间可以计算距离,距离远近对应语义相似度⼤⼩
"这个多少钱" → [0.1, 0.5, -0.7, ..., 0.25] "这个什么价格" → [0.12, 0.4, -0.3, ..., 0.3] ← 距离近(语义相似) "给我报个价" → [0.15, 0.3, -0.2, ..., 0.3] ← 距离近(语义相似) "我想要这个" → [0.8, -0.1, 0.4, ..., -0.1] ← 距离远(语义不同) 
在这里插入图片描述

相似度计算方法

  1. 余弦相似度(Cosine Similarity)
    • 衡量两个向量方向的相似性,值域[-1, 1]
    • 适合文本语义匹配,不受向量长度影响
    • 公式: s i m i l a r i t y ( A , B ) = A ⋅ B ∥ A ∥ ∥ B ∥ similarity(A,B) = \frac{A \cdot B}{\|A\| \|B\|} similarity(A,B)=∥A∥∥B∥A⋅B​
  2. 欧氏距离(Euclidean Distance)
    • 衡量向量空间的实际距离
    • 公式: d ( A , B ) = ∑ i = 1 n ( a i − b i ) 2 d(A,B) = \sqrt{\sum_{i=1}^{n}(a_i - b_i)^2} d(A,B)=∑i=1n​(ai​−bi​)2​
    • 值越小越相似

具体选哪种方法?

  • 欧式距离:如果更侧重于向量的实际距离,且向量的尺度相对一致时,更适合用欧式距离

余弦相似度:更适用于比较文本、关键词向量等场景。因为这些场景向量的方向比他们的模长更重要

在这里插入图片描述

三、实战:基于Spring AI + Milvus实现RAG

3.1 环境准备

依赖配置(Maven)

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-openai</artifactId></dependency><dependency><groupId>io.milvus</groupId><artifactId>milvus-sdk-java</artifactId><version>2.2.10</version></dependency>

配置信息

# OpenAI配置(用于Embedding和Chat) spring.ai.openai.api-key=your-api-key spring.ai.openai.embedding.api-key=your-api-key spring.ai.openai.embedding.base-url=https://api.openai-hk.com # Milvus配置 milvus.host=localhost milvus.port=19530 

3.2 核心代码实现

步骤1:创建向量集合
publicvoidcreateCollection(){List<FieldType> fieldTypes =Arrays.asList(// 主键IDFieldType.newBuilder().withName("id").withDataType(DataType.Int64).withPrimaryKey(true).withAutoID(true).build(),// 向量字段(1536维,对应text-embedding-3-small)FieldType.newBuilder().withName("feature").withDataType(DataType.FloatVector).withDimension(1536).build(),// 原始文本FieldType.newBuilder().withName("instruction").withDataType(DataType.VarChar).withMaxLength(65535).build(),// 答案内容FieldType.newBuilder().withName("output").withDataType(DataType.VarChar).withMaxLength(65535).build());CreateCollectionParam createParam =CreateCollectionParam.newBuilder().withCollectionName("springai_rag").withFieldTypes(fieldTypes).build(); client.createCollection(createParam);// 创建IVF_FLAT索引,加速检索CreateIndexParam indexParam =CreateIndexParam.newBuilder().withCollectionName("springai_rag").withFieldName("feature").withIndexType(IndexType.IVF_FLAT).withMetricType(MetricType.L2).build(); client.createIndex(indexParam);}
步骤2:数据向量化与存储
@AutowiredprivateEmbeddingModel embeddingModel;publicvoidinsertData(List<FaqItem> items){for(FaqItem item : items){// 1. 文本向量化float[] embeddings = embeddingModel.embed(item.getInstruction());// 2. 构建插入参数List<InsertParam.Field> fields =newArrayList<>(); fields.add(newInsertParam.Field("feature",Collections.singletonList(embeddings))); fields.add(newInsertParam.Field("instruction",Collections.singletonList(item.getInstruction()))); fields.add(newInsertParam.Field("output",Collections.singletonList(item.getOutput())));// 3. 插入MilvusInsertParam insertParam =InsertParam.newBuilder().withCollectionName("springai_rag").withFields(fields).build(); client.insert(insertParam);}}
步骤3:RAG检索与生成
@TestvoidragTest(){String userQuestion ="预算8000元以内,适合深度学习的笔记本电脑推荐";// 1. 向量化查询float[] queryEmbedding = embeddingModel.embed(userQuestion);// 2. 向量检索Top-3SearchParam searchParam =SearchParam.newBuilder().withCollectionName("springai_rag").withMetricType(MetricType.L2).withTopK(3).withVectors(Collections.singletonList(queryEmbedding)).withVectorFieldName("feature").withOutFields(Arrays.asList("instruction","output")).build();SearchResults results = client.search(searchParam).getData();List<RowRecord> records =newSearchResultsWrapper(results).getRowRecords();// 3. 构建上下文StringBuilder context =newStringBuilder();for(RowRecordrecord: records){ context.append("Q: ").append(record.get("instruction")).append("\n"); context.append("A: ").append(record.get("output")).append("\n\n");}// 4. 构建增强PromptString enhancedPrompt =String.format(""" # 角色设定 你是资深数码产品顾问,擅长根据用户需求推荐笔记本电脑。 请严格基于以下商品库信息回答,不要推荐库中不存在的商品。 # 商品库信息(Top-3匹配结果): %s # 用户需求: %s # 回答要求: 1. 先分析用户需求(用途、预算、性能要求) 2. 从商品库中推荐1-2款最合适的,说明理由 3. 如果商品库中没有匹配项,请明确告知"暂无符合要求的商品" 4. 最后可简要补充选购建议(非强制) """, context, userQuestion);// 5. 调用LLM生成String answer = chatClient.prompt(enhancedPrompt).call().content();System.out.println(answer);}

四、RAG优化策略与痛点解决

4.1 文本分割的艺术(Chunking Strategy)

文本分割是影响RAG效果的关键因素,常用策略对比:

分割策略实现方式优点缺点适用场景
固定字符数每N个字符切分简单高效可能切断语义对上下文连续性要求不高的场景
滑动窗口固定大小+重叠部分保留上下文衔接数据冗余,存储增加需要连贯性的长文档
递归字符按标点优先级切分(先句号→逗号→空格)保持语义完整实现复杂专业文档、论文
基于语义使用NLP模型判断语义边界最优语义保留计算成本高高精度要求的知识库

最佳实践

  • 结合文档结构(Markdown标题、PDF段落)进行分层切分
  • chunk大小建议:256-512 tokens(根据embedding模型调整)
  • 设置适当的重叠(overlap)保持上下文连贯

4.2 检索优化的进阶技巧

1. 混合检索(Hybrid Search)
结合关键词检索(BM25)和向量检索,兼顾精确匹配和语义理解:

// 伪代码示例List<Document> keywordResults =keywordSearch(query);List<Document> vectorResults =vectorSearch(query);List<Document> hybridResults =rerank(merge(keywordResults, vectorResults));

2. 重排序(Reranking)
使用专门的交叉编码器(Cross-Encoder)模型对Top-K结果进行精排:

  • 先使用向量检索召回Top-20
  • 使用重排模型计算问题与文档的相关性分数
  • 取Top-3作为最终上下文

3. 查询重写(Query Rewriting)
对用户的模糊查询进行扩展和澄清:

  • 原查询:“这个多少钱?”
  • 重写后:“iPhone 15 Pro Max 256GB 官方售价是多少?”

4.3 RAG痛点与解决方案

基于《Seven Failure Points When Engineering a Retrieval Augmented Generation System》的总结:

痛点类别具体表现解决方案
Missing Content知识库中没有答案设置兜底回复;持续扩充知识库
Missed Top Ranked正确答案未进入Top-K调整similarity阈值;引入重排序
Not in Context检索到内容但与问题无关优化文本分割;提升向量模型质量
Wrong Format需要JSON但返回了文本Prompt中明确输出格式示例;使用结构化输出
Incomplete答案只覆盖问题部分引导模型逐步思考(CoT);拆分复杂问题
Not Extracted上下文中有答案但模型未提取优化Prompt模板;增强上下文标识

五、RAG效果评估(RAGAS)

RAGAS(Retrieval-Augmented Generation Assessment)是评估RAG系统的标准框架,核心指标:

5.1 检索质量指标

  1. Context Relevancy(上下文相关性)
    • 衡量检索到的上下文与问题的相关程度
    • 计算公式:相关句子数 / 总句子数
  2. Context Recall(上下文召回率)
    • 衡量检索结果是否包含回答问题所需的所有信息
    • 基于标准答案(Ground Truth)进行判断

5.2 生成质量指标

  1. Faithfulness(忠实性)
    • 评估生成答案是否基于检索到的上下文,而非幻觉
    • 值越高,模型"编造"内容越少
  2. Answer Relevancy(答案相关性)
    • 衡量答案与问题的直接相关程度

评估数据集格式

{"question":"预算8000元以内,适合深度学习的笔记本电脑推荐","contexts":["机械革命翼龙15 Pro配备RTX4060显卡,支持CUDA加速,售价7499元","联想拯救者Y7000P 2024款搭载i7-14650HX和RTX4060,售价8499元超出预算","轻薄本不适合深度学习,缺乏独立显卡"],"answer":"推荐机械革命翼龙15 Pro,配备RTX4060显卡支持CUDA加速,价格7499元符合预算","ground_truths":["机械革命翼龙15 Pro,RTX4060,7499元"]}

六、总结与展望

RAG vs Fine-tuning 选择指南

选择RAG的场景

  • 需要实时更新的知识(如新闻、股价)
  • 数据量庞大且频繁变动
  • 需要解释性强的应用场景(可溯源到具体文档)
  • 预算有限,无法承担微调成本

选择Fine-tuning的场景

  • 需要改变模型行为风格(如特定语气、格式)
  • 领域知识非常固定且通用模型表现极差
  • 对延迟敏感(RAG需要额外检索时间)

未来趋势

  1. Agentic RAG:结合ReAct模式,让模型自主决定何时检索、检索什么
  2. 多模态RAG:支持图片、音频、视频的检索增强
  3. Graph RAG:结合知识图谱,处理复杂的多跳推理问题

参考资料

  • Spring AI官方文档
  • 《Seven Failure Points When Engineering a Retrieval Augmented Generation System》
  • Milvus向量数据库最佳实践

通过本文,你应该已经掌握了RAG技术的完整链路:从文档切分、向量化存储,到相似度检索和Prompt增强。在实际项目中,建议先从简单的关键字检索+向量混合方案开始,逐步引入重排序、查询重写等优化策略。

Read more

传统VS 8MAV:无人机巡检效率对比实验

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 输入框内输入如下内容: 开发一个电力线路巡检效率对比工具,功能包括:1. 模拟单无人机巡检过程 2. 模拟8MAV集群巡检 3. 自动计算两种模式的时间成本 4. 生成效率对比图表 5. 支持自定义巡检区域设置。要求使用Python,包含OpenCV图像处理库,输出详细的效率分析报告。 1. 点击'项目生成'按钮,等待项目生成完整后预览效果 传统VS 8MAV:无人机巡检效率对比实验 最近在做一个电力线路巡检的项目,发现传统单无人机巡检效率确实存在瓶颈。为了验证8MAV集群系统的优势,我开发了一个效率对比工具,记录下整个过程和发现。 项目背景与需求分析 电力线路巡检是个耗时耗力的工作。传统方式需要巡检员带着单台无人机,一段段线路慢慢飞,不仅效率低,遇到复杂地形还容易漏检。8MAV集群系统理论上可以多机协同作业,但具体能提升多少效率,

AIGlasses_for_navigation效果展示:盲道分割结果叠加AR眼镜视野实时导航示意

AIGlasses_for_navigation效果展示:盲道分割结果叠加AR眼镜视野实时导航示意 1. 引言:当AI视觉遇见无障碍导航 想象一下,一位视障朋友走在陌生的街道上,他需要准确找到脚下的盲道,安全地通过前方的斑马线。传统的导盲杖可以探测到障碍物,但对于地面上的这些关键导航标识,却常常无能为力。这正是AI智能盲人眼镜导航系统想要解决的核心痛点。 今天,我想和大家分享一个非常有意思的项目——AIGlasses_for_navigation。这不仅仅是一个技术演示,更是一个将计算机视觉与增强现实(AR)结合,为视障人士提供实时、精准导航辅助的完整解决方案。它的核心,是一个基于YOLO分割模型的视频目标分割系统,能够实时检测并分割出盲道和人行横道。 在接下来的内容里,我会带大家看看这个系统在实际场景中的效果到底怎么样。我们会看到AI如何从复杂的街景中“认出”盲道和斑马线,以及如何将这些识别结果叠加到AR眼镜的视野中,形成直观的导航指引。这不仅是技术的展示,更是科技向善的一次生动实践。 2. 核心能力概览:不止于“看见” 在深入效果展示之前,我们先快速了解一下这个系统

openclaw配置飞书(Feishu)机器人(2026.03.07)

openclaw配置飞书(Feishu)机器人(2026.03.07)

前提:你已经安装好openclaw,配置好了大模型。 可借鉴我另一篇博文:https://mp.ZEEKLOG.net/mp_blog/creation/editor/157513751 一、配置openclaw channel 打开终端,输入: openclaw config 开始安装,需要等一会,安装好需要你填飞书的App ID和App Secret,先放着,等执行下面的步骤 然 二、配置飞书机器人 , 获取App ID和App Secret 安装流程如下链接,太长了,不想编辑了,完成版本发布。 https://www.feishu.cn/content/article/7613711414611463386 1.配置事件长连接时,需要在openclaw上安装飞书SDK(如果步骤一没执行会长连接失败) 2.当然以上配还是有问题的,

web3是什么,业务应用

Web3(或Web 3.0)是互联网发展的下一个阶段,核心愿景是构建一个去中心化、用户主导、无需信任中介的数字生态。它试图解决当前Web2(社交网络、电商平台等)的核心问题——数据与权力集中在少数大公司手中,让用户真正拥有自己的数字资产和身份。 一、Web3的核心逻辑:从“读/写”到“拥有” * Web1(1990s-2000s):只读互联网(Read-only),用户只能获取信息(如门户网站、早期论坛),数据是静态的。 * Web2(2000s至今):读写互联网(Read-write),用户可以互动(发朋友圈、写博客),但数据与权力归平台所有(比如微信存储你的聊天记录,抖音控制你的推荐算法)。 * Web3(正在演进):读写+拥有互联网(Read-write-own),通过区块链技术让用户直接控制自己的数据、资产和身份(比如用NFT证明你是某件数字艺术品的所有者,用加密货币转账无需银行)。 二、Web3的核心特征