Spring AI Alibaba 集成 Redis 向量数据库实现 RAG 与记忆功能
概述
本文基于一个完整的 Spring Boot 项目示例,详细讲解如何使用 Spring AI Alibaba 框架集成 Redis 向量数据库,实现检索增强生成(RAG)和对话记忆功能。项目包含向量存储、文档加载、多模型配置、记忆管理等核心模块,适用于构建具备知识库检索和上下文记忆的 AI 应用。
基于 Spring Boot 项目示例,详解如何使用 Spring AI Alibaba 框架集成 Redis 向量数据库。内容涵盖环境配置、Redis 记忆存储、多模型(DeepSeek/Qwen)配置、文档加载与向量化、RESTful API 实现等核心模块。通过检索增强生成(RAG)和对话记忆管理,构建具备知识库检索和上下文记忆的 AI 应用。提供了完整的 Maven 依赖、配置文件及代码示例,支持流式响应和多会话隔离,适用于智能客服、知识问答等场景。
本文基于一个完整的 Spring Boot 项目示例,详细讲解如何使用 Spring AI Alibaba 框架集成 Redis 向量数据库,实现检索增强生成(RAG)和对话记忆功能。项目包含向量存储、文档加载、多模型配置、记忆管理等核心模块,适用于构建具备知识库检索和上下文记忆的 AI 应用。
整个项目采用分层架构设计,主要包含以下核心组件:
在 pom.xml 中配置 Spring AI Alibaba 相关依赖:
<properties>
<spring-ai.version>1.0.0</spring-ai.version>
<spring-ai-alibaba.version>1.0.0.2</spring-ai-alibaba.version>
<spring-boot.version>3.4.5</spring-boot.version>
<java.version>17</java.version>
</properties>
<dependencies>
<!-- Spring AI Alibaba BOM -->
<dependency>
<groupId>com.alibaba.cloud.ai</groupId>
<artifactId>spring-ai-alibaba-bom</artifactId>
<version>${spring-ai-alibaba.version}</version>
<type>pom</type>
<scope>import</scope>
</dependency>
<!-- DashScope 模型支持 -->
<dependency>
<groupId>com.alibaba.cloud.ai</groupId>
<artifactId>spring-ai-alibaba-starter-dashscope</artifactId>
<version>${spring-ai-alibaba.version}</version>
</dependency>
<!-- Redis 记忆存储 -->
<dependency>
<groupId>com.alibaba.cloud.ai</groupId>
<artifactId>spring-ai-alibaba-starter-memory-redis</artifactId>
<version>${spring-ai-alibaba.version}</version>
</dependency>
<!-- 向量存储核心 -->
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-vector-store</artifactId>
<version>${spring-ai.version}</version>
</dependency>
<!-- Redis 客户端 -->
<dependency>
<groupId>redis.clients</groupId>
<artifactId>jedis</artifactId>
</dependency>
<!-- 其他基础依赖 -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<optional>true</optional>
</dependency>
</dependencies>
spring:
data:
redis:
host: localhost
port: 6379
password: 123456
lettuce:
pool:
max-active: 16
max-idle: 8
min-idle: 4
timeout: 2000ms
servlet:
multipart:
max-file-size: 100MB
max-request-size: 100MB
application:
name: Roadnetworktraffic
ai:
vectorstore:
redis:
initialize-schema: true
index-name: custom-index
prefix: custom-prefix
dashscope:
embedding:
baseUrl: https://dashscope.aliyuncs.com # 向量模型
api-key: your-api-key-here
options:
model: text-embedding-v4
api-key: your-api-key-here
base-url: https://dashscope.aliyuncs.com/compatible-mode/v1
chat:
options:
model: qwen-flash
关键配置说明:
spring.data.redis:Redis 连接配置,用于向量存储和记忆存储spring.ai.vectorstore.redis:向量存储的 Redis 索引配置spring.ai.dashscope:通义千问模型配置,包括嵌入模型和对话模型@Configuration
public class RedisMemoryConfig {
@Value("${spring.data.redis.host}")
private String host;
@Value("${spring.data.redis.port}")
private int port;
@Value("${spring.data.redis.password}")
private String password;
@Bean
public RedisChatMemoryRepository redisChatMemoryRepository() {
return RedisChatMemoryRepository.builder()
.host(host)
.password(password)
.port(port)
.build();
}
}
功能说明:
@Value 注入配置文件中的 Redis 连接参数RedisChatMemoryRepository Bean,用于存储对话历史@Configuration
public class SaaLLMConfig {
@Value("${spring.ai.dashscope.api-key}")
private String apiKey;
// 模型名称常量
private final String DEEPSEEK_MODEL = "deepseek-v3.2";
private final String QWEN_MODEL = "qwen-flash";
@Bean(name = "deepseek")
public ChatClient deepSeek(RedisChatMemoryRepository redisChatMemoryRepository) {
DashScopeChatModel dashScopeChatModel = DashScopeChatModel.builder()
.dashScopeApi(DashScopeApi.builder().apiKey(apiKey).build())
.defaultOptions(DashScopeChatOptions.builder().withModel(DEEPSEEK_MODEL).build())
.build();
return ChatClient.builder(dashScopeChatModel)
.defaultAdvisors(MessageChatMemoryAdvisor.builder(
MessageWindowChatMemory.builder()
.chatMemoryRepository(redisChatMemoryRepository)
.maxMessages(10)
.build()).build())
.defaultOptions(ChatOptions.builder().model(DEEPSEEK_MODEL).build())
.build();
}
@Bean(name = "qwen")
public ChatClient qwen(RedisChatMemoryRepository redisChatMemoryRepository) {
DashScopeChatModel dashScopeChatModel = DashScopeChatModel.builder()
.dashScopeApi(DashScopeApi.builder().apiKey(apiKey).build())
.defaultOptions(DashScopeChatOptions.builder().withModel(QWEN_MODEL).build())
.build();
return ChatClient.builder(dashScopeChatModel)
.defaultAdvisors(MessageChatMemoryAdvisor.builder(
MessageWindowChatMemory.builder()
.chatMemoryRepository(redisChatMemoryRepository)
.maxMessages(10)
.build()).build())
.defaultOptions(ChatOptions.builder().model(QWEN_MODEL).build())
.build();
}
}
核心特性:
@Qualifier 和 @Bean(name) 实现多模型注入MessageChatMemoryAdvisor,自动管理对话历史maxMessages(10) 限制每个会话最多保留 10 条消息,避免内存溢出@Slf4j
@Component
public class AppDocumentLoader {
@Value("classpath:/prompt/Gompt.txt")
private Resource opsFile;
public List<Document> loadMarkdowns() {
TextReader textReader = new TextReader(opsFile);
textReader.setCharset(Charset.defaultCharset());
// 使用 TokenTextSplitter 进行文本分割
List<Document> list = new TokenTextSplitter().transform(textReader.read());
return list;
}
}
关键点:
TextReader 读取本地文档(支持多种格式)TokenTextSplitter 对长文本进行分块,便于向量化Document 列表,每个文档包含内容和元数据@Configuration
public class VectorStoreBean {
@Resource
private AppDocumentLoader appDocumentLoader;
@Resource
private EmbeddingModel embeddingModel;
@Bean
public VectorStore vectorStore() {
// 创建 SimpleVectorStore(底层使用 Redis)
VectorStore build = SimpleVectorStore.builder(embeddingModel).build();
// 加载文档并添加到向量库
List<Document> documents = appDocumentLoader.loadMarkdowns();
build.add(documents);
return build;
}
}
RAG 核心流程:
SimpleVectorStore.builder() 创建向量存储实例appDocumentLoader.loadMarkdowns() 加载本地文档build.add(documents) 将文档向量化并存储到 Redis@RestController
@RequestMapping("/aichat/stream")
@Slf4j
public class AiController {
@Qualifier("deepseek")
@Autowired
private ChatClient deepseekModel;
@Qualifier("qwen")
@Autowired
private ChatClient qwenModel;
@Autowired
private VectorStore vectorStore;
@Value("classpath:/prompt/story-prompt.txt")
private Resource storyPrompt;
@GetMapping(value = "/deepseek")
public Flux<String> chatDeepseek(@RequestParam String sessionId, @RequestParam String userContent) {
return deepseekModel.prompt()
.system(storyPrompt) // 系统提示词
.user(userContent) // 用户输入
.advisors(message -> {
// 设置会话 ID,用于记忆隔离
if (message != null) {
message.param(CONVERSATION_ID, sessionId);
}
})
.advisors(RetrievalAugmentationAdvisor.builder()
.documentRetriever(VectorStoreDocumentRetriever.builder()
.vectorStore(vectorStore)
.build())
.build())
.stream() // 流式输出
.content()
.doOnError(e -> log.error("Stream error: " + e.getMessage()));
}
@GetMapping("/qwen")
public Flux<String> chatQwen(@RequestParam String sessionId, @RequestParam String userContent) {
return qwenModel.prompt()
.system(storyPrompt)
.user(userContent)
.advisors(message -> {
if (message != null) {
message.param(CONVERSATION_ID, sessionId);
}
})
.stream()
.content()
.doOnError(e -> log.error("Stream error: " + e.getMessage()));
}
}
API 特性:
| 接口路径 | 方法 | 参数 | 功能 |
|---|---|---|---|
/aichat/stream/deepseek | GET | sessionId, userContent | DeepSeek 模型流式对话(带 RAG) |
/aichat/stream/qwen | GET | sessionId, userContent | Qwen 模型流式对话 |
核心功能实现:
RetrievalAugmentationAdvisor 集成向量检索message.param(CONVERSATION_ID, sessionId) 设置会话标识.stream() 返回 Flux<String> 实现流式输出用户提问 → 向量化查询 → Redis 向量库相似度检索 → 获取 top-k 相关文档 ↓ 构建提示词(系统提示 + 检索文档 + 历史对话 + 用户问题) ↓ 调用 AI 模型生成 → 返回响应
检索过程:
text-embedding-v4 模型向量化Spring AI 通过 ChatMemory 抽象层管理对话状态:
// 记忆存储接口
public interface ChatMemory {
void add(ChatMessage message);
List<ChatMessage> getMessages();
void clear();
}
// Redis 实现
public class RedisChatMemory implements ChatMemory {
// 使用 Redis 存储,key 格式:memory:sessionId
}
记忆存储结构:
maxMessages 控制)SimpleVectorStore 底层使用 Redis 作为存储引擎:
public class RedisVectorStore implements VectorStore {
// 使用 RedisSearch 模块创建向量索引
public void createIndex(String indexName, VectorFieldSchema fieldSchema) {
// 创建 HNSW 索引 FT.CREATE indexName ...
}
public void add(List<Document> documents) {
// 调用 embeddingModel 生成向量
List<Float> vector = embeddingModel.embed(document.getContent());
// 存储到 Redis Hash
redis.hset(key, "vector", vector, "content", content);
}
}
技术栈:
启动 Redis 时需启用模块:
redis-server --loadmodule /path/to/redisearch.so
或使用 Docker:
docker run -p 6379:6379 redislabs/redisearch:latest
mvn clean package java -jar target/your-app.jar
测试 RAG 功能:
# 测试 DeepSeek 模型(带 RAG)
curl "http://localhost:8080/aichat/stream/deepseek?sessionId=test123&userContent=什么是 GIS?"
# 测试 Qwen 模型(不带 RAG)
curl "http://localhost:8080/aichat/stream/qwen?sessionId=test123&userContent=你好"
测试记忆功能:
# 第一次对话
curl "http://localhost:8080/aichat/stream/deepseek?sessionId=user1&userContent=我叫张三"
# 第二次对话(会记住上下文)
curl "http://localhost:8080/aichat/stream/deepseek?sessionId=user1&userContent=我的名字是什么?"
向量检索优化:
内存优化:
maxMessages,避免内存泄漏多知识库支持:
@Bean(name = "vectorStoreA")
public VectorStore vectorStoreA() {
...
}
@Bean(name = "vectorStoreB")
public VectorStore vectorStoreB() {
...
}
// 根据业务场景选择不同的向量库
混合检索策略:
本文通过完整可运行的代码示例,详细介绍了 Spring AI Alibaba 集成 Redis 向量数据库实现 RAG 和记忆功能的完整方案。核心要点包括:
该方案适用于智能客服、知识问答、文档检索等多种 AI 应用场景,具备良好的可维护性和扩展性。
注意事项:
通过本文的实践,您可以快速构建具备 RAG 和记忆能力的 AI 应用,提升用户体验和回答准确性。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
查找任何按下的键的javascript键代码、代码、位置和修饰符。 在线工具,Keycode 信息在线工具,online
JavaScript 字符串转义/反转义;Java 风格 \uXXXX(Native2Ascii)编码与解码。 在线工具,Escape 与 Native 编解码在线工具,online
使用 Prettier 在浏览器内格式化 JavaScript 或 HTML 片段。 在线工具,JavaScript / HTML 格式化在线工具,online
Terser 压缩、变量名混淆,或 javascript-obfuscator 高强度混淆(体积会增大)。 在线工具,JavaScript 压缩与混淆在线工具,online
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online