Spring AI框架完整指南

Spring AI 框架完整指南(2025 年最新版)

Spring AI 是 Spring 生态中专为 AI 工程设计的应用框架,于 2024 年正式推出,并在 2025 年快速发展,已成为 Java 开发者构建生成式 AI 应用的首选工具。它简化了与大型语言模型(LLM)、嵌入模型和向量数据库的集成,让企业级 Java 应用轻松接入 AI 能力,如聊天机器人、RAG(Retrieval Augmented Generation)和智能代理。根据官方文档和 2025 年最新发布(如 Spring AI 1.1 GA),本指南从基础到高级全面解析,结合代码示例和最佳实践,帮助你快速上手。内容基于 Spring 官方文档、GitHub 仓库和 2025 年社区资源。

一、Spring AI 概述

Spring AI 的核心使命是“连接企业数据和 API 与 AI 模型”,它不是 Python AI 框架(如 LangChain)的直接移植,而是为 Java/Spring 生态量身定制,提供可移植的抽象层。不同于传统 Spring 模块,它聚焦生成式 AI,强调简洁性和生产就绪(如自动配置、观测性)。

为什么选择 Spring AI?(2025 年价值)

  • Java 原生:无需切换到 Python,保持端到端 Java 开发。
  • Spring 集成:无缝嵌入 Spring Boot,支持自动装配和 Starter。
  • 多提供商支持:统一 API 接入 OpenAI、Anthropic、Ollama 等,避免供应商锁定。
  • 企业级特性:工具调用、RAG、评估框架,解决幻觉(hallucination)和安全性问题。
  • 2025 年现状:Spring AI 1.1 GA(2025 年 11 月发布),引入 Agents 框架和 Bench 评估工具;兼容 Spring Framework 7.x 和 Java 21+。

适用场景:聊天助手、文档 Q&A、智能搜索、图像生成、代理式 AI(如代码生成工具)。

二、关键特性

Spring AI 的特性围绕可移植性和易用性设计,以下是核心亮点:

特性描述2025 年亮点
ChatClient API流式/同步聊天接口,类似 WebClient,支持多模型。集成 MCP(Model Context Protocol)协议,提升代理间通信。
嵌入与向量存储嵌入模型生成向量,向量数据库(如 PGVector、Neo4j)支持 RAG。新增 SQL-like 过滤 API,简化元数据查询。
工具/函数调用模型调用客户端工具(如天气 API),实现实时交互。@Tool 注解简化服务器暴露,支持 OAuth 安全。
结构化输出AI 输出映射到 POJO,避免解析 JSON。增强类型安全,支持复杂对象。
观测性追踪 AI 操作,支持 Prometheus/OpenTelemetry。新增聊天完成日志,便于调试。
评估框架Bench 工具评估生成内容,检测幻觉。Spring AI Bench:基准测试和评估套件。
文档 ETL摄取/转换/加载框架,处理企业数据。升级 Tika 3.2.3,支持多模态(文本+图像)。
代理与 Advisors构建代理模式,封装 AI 模式(如重试、缓存)。Agents 框架:5 大模式(简单代理、工具链等)。

这些特性让 Spring AI 适用于从简单聊天到复杂代理的场景。

三、架构解析

Spring AI 的架构基于抽象层 + 实现多态:

  • 抽象层:ChatModel、EmbeddingModel、VectorStore 等接口,提供统一 API。
  • 实现层:每个提供商(如 OpenAIChatModel)实现抽象,支持同步/流式。
  • Spring Boot 层:Starter 自动配置,@EnableSpringAi 启用。
  • 高级层:Advisors(模式封装)、MCP(代理协议)。

流程示例:用户输入 → ChatClient → 模型提供商 → 输出(可流式) → Advisors 处理(日志/缓存)。

2025 更新:兼容 GraalVM Native,提升冷启动性能;MCP 支持 stdio/HTTP SSE 端点。

四、支持的 AI 提供商

Spring AI 支持 20+ 提供商,确保灵活性。

类别提供商示例支持功能
聊天/LLMOpenAI、Anthropic、Microsoft、Amazon Bedrock、Google Vertex、Ollama聊天、流式、工具调用
嵌入OpenAI、Hugging Face、Cohere、Google Vertex向量生成
图像OpenAI DALL-E、Stability AI、Amazon Bedrock文本到图像、多模态
向量数据库PGVector、Neo4j、Milvus、Pinecone、Redis、WeaviateRAG、相似性搜索

配置示例(application.yml):

spring:ai:openai:api-key: ${OPENAI_API_KEY}chat:options:model: gpt-4o embedding:options:model: text-embedding-ada-002

五、快速入门

步骤 1: 添加依赖

使用 Spring Initializr(start.spring.io)添加 spring-ai-openai-spring-boot-starter

Maven 示例:

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai-spring-boot-starter</artifactId></dependency>

步骤 2: 配置 API Key

在 application.yml 中设置密钥(环境变量推荐)。

步骤 3: 构建简单应用

启动类:

@SpringBootApplicationpublicclassSpringAiApp{publicstaticvoidmain(String[] args){SpringApplication.run(SpringAiApp.class, args);}}

六、基本用法代码示例

1. 聊天交互(ChatClient)

@ServicepublicclassChatService{privatefinalChatClient chatClient;publicChatService(ChatClient.Builder chatClientBuilder){this.chatClient = chatClientBuilder.build();}publicStringchat(String message){return chatClient.prompt().user(message).call().content();// 同步响应}}

流式示例:.call().stream() 返回 Flux。

2. 嵌入生成

@ServicepublicclassEmbeddingService{privatefinalEmbeddingModel embeddingModel;publicList<Double>embed(String text){EmbeddingResponse response = embeddingModel.embed(text);return response.getOutput().get(0).getEmbedding();}}

3. 图像生成

@ServicepublicclassImageService{privatefinalImageModel imageModel;publicStringgenerateImage(String prompt){ImageResponse response = imageModel.call(newPrompt(newImagePrompt(prompt)));return response.getResult().getOutput().getUrl();// 返回图像 URL}}

支持多模态:输入图像 + 文本。

4. RAG 示例(向量存储)

使用 PGVector:

@AutowiredprivateVectorStore vectorStore;publicSearchResultragSearch(String query){ vectorStore.add(List.of(Document.builder().content("企业数据...").build()));return vectorStore.similaritySearch(SimilarityRequest.query(query));}

集成 ChatClient:chatClient.prompt().user(query).advisors(ragAdvisor).call()

七、高级主题

1. RAG(Retrieval Augmented Generation)

  • 核心:嵌入查询 → 向量搜索 → 注入上下文 → LLM 生成。
  • 2025 实践:模块化 RAG 架构,支持多向量存储。

2. 代理(Agents)

Spring AI 1.1 引入 Agents 框架,支持 5 大模式:

  • 简单代理:基本工具调用。
  • 工具链:顺序执行工具。
  • 示例:天气代理(调用 MCP 工具)。
@ToolpublicStringgetWeather(String city){/* 调用 API */}

使用 Advisors 封装模式,如重试/缓存。

3. 评估与 Bench

使用 Spring AI Bench 评估生成质量:

// 伪代码:评估幻觉率BenchmarkResult result = bench.evaluate(generatedText, expected);

4. 安全与非功能需求

  • moderation 模型过滤内容。
  • OAuth for MCP。
  • 性能:虚拟线程支持,Native Image 兼容。

八、Spring Boot 集成与最佳实践

  • Starter 机制spring-ai-starter-vector-store-pgvector 等,一键集成。
  • 观测:集成 Micrometer,监控令牌使用。
  • 最佳实践
    • 使用 Advisors 封装模式,避免重复代码。
    • 优先结构化输出,减少解析错误。
    • 测试:Mock AI 提供商,单元测试 ChatClient。
    • 伦理:评估幻觉,遵守数据隐私(GDPR)。

2025 学习路线:从 ChatClient 入门 → RAG 项目 → Agents 高级 → Bench 优化。

Spring AI 让 Java 开发者轻松拥抱 AI 浪潮!需具体示例或 2025 迁移指南?随时问我。

Read more

【硬核实战】Mac mini M4 部署 OpenClaw + Ollama 本地大模型:从零到一打通飞书机器人

【硬核实战】Mac mini M4 部署 OpenClaw + Ollama 本地大模型:从零到一打通飞书机器人

文章目录 * 一、 核心环境准备 * 二、 避坑指南:环境初始化在 Mac 终端部署时,首要解决的是权限与路径问题。 * 1. 终端常用快捷键* `Control + C`:强制停止当前运行的命令(如安装卡死时)。 * 2. Node.js 环境修复若遇到 `zsh: command not found: openclaw`,说明 NVM 路径未加载。 * 3. 临时加载环境 * 4. 永久写入配置 * 三、 模型选择:M4 性能调优 * 四、 OpenClaw 配置手术 (JSON 详解) * 五、 飞书机器人接入:最后的临门一脚 * 六、 运行与调试 * 启动 Gateway * 第一次发消息需授权 (Pairing) * 💡 结语

uniapp-x的HarmonyOS鸿蒙应用开发:tabbar底部导航栏的实现

uniapp-x的HarmonyOS鸿蒙应用开发:tabbar底部导航栏的实现

假期期间,百无聊赖。空闲时间够多了吧?有时候感觉特别的百无聊赖。不睡懒觉,电影不看,手机不刷,游戏不玩,也无处可去。那么做什么呢? 于是翻出来之前做过的“爱影家”影视app项目,找个跨多端的技术栈实战学习一把。我先后尝试了kuikly、flutter 、arkui-x等框架,结果。。。,额,这几个没少踩坑做不动了。真想向天问一下,跨平台框架开发哪家强?最后尝试了下uni-app x,被惊艳到了。果然dcloud很给力啊。且uni-app-x的性能很给力。还停留在uniapp只擅长小程序吗?唯独被诟病的是:uniapp-x的uts语法很难受啊,写法跟ts差异很大,且大模型不认识uts语法。 可以体验打包后的hello uni-app x这个demo项目,地址是:https://hellouniappx.dcloud.net.cn/ 可以看到组件很全面啊,我先后体验了android端,鸿蒙端和小程序端,界面UI效果一致,且鸿蒙端运行相当流畅。可以看到组件还是很丰富的。浏览器端的体检们可以直接访问:https://hellouniappx.

组建龙虾团队——OpenClaw多机器人构建

组建龙虾团队——OpenClaw多机器人构建

成功搭建了OpenClaw,也成功建立的自己的每日服务,这时候发现,似乎不太敢在当前的机器人中让他做别的事情,生怕会话太多会让他出现遗忘。(尽管我们配置了QMD记忆增强,但毋庸置疑任何技术都是有上限的)。 换做同样的情况,比如在DeepSeek或者豆包之类的对话窗口,我们会习惯性地新建一个对话。那么我们是否可以新建一个机器人,或者多个机器人,让他们各司其职,各尽所能,形成一个相互配合的团队呢~开干吧,没什么不可能的!! 🦞新建一个机器人 来到飞书开发者后台,新创建一个应用,在这里我们以短视频剪辑脚本应用为例。 创建之后,由于我们的openclaw绑定的是之前的飞书渠道,并没有链接到这个应用的APP ID,所以暂时不做其他操作,只需要记录一下他的APP ID和APP Secret。 🦞配置OpenClaw 如果还是按照claw的命令行安装,每一步都有些让人担心害怕,毕竟我们先前已经配置过一次了,接下来的操作,需要小心是否会把以前的配置给覆盖掉。 为了避免这样的不确定性,我们直接去操作他的配置文件 在WSL2终端中进入openclaw目录 cd .openclaw

AI绘画新选择:Z-Image-Turbo与Stable Diffusion对比体验

AI绘画新选择:Z-Image-Turbo与Stable Diffusion对比体验 如果你最近在AI绘画工具间反复横跳——等SDXL模型下载到怀疑人生、调参调到显存报警、生成一张图要喝三杯咖啡,那今天这篇实测可能就是你一直在找的“那个开关”。我们不聊参数量、不讲训练方法,就用最真实的工作流场景:同一台RTX 4090D机器、同一个提示词、同一张显示器,把Z-Image-Turbo和Stable Diffusion XL(SDXL 1.0)面对面拉出来比一比。不是理论对比,是手按回车键后,看谁先弹出那张图。 1. 先说结论:快不是噱头,是实打实的体验差 Z-Image-Turbo不是“又一个扩散模型”,它是为生产环境重新定义“生成”这个动作的工具。而Stable Diffusion,依然是那个你熟悉、信赖、但越来越像“需要定期保养的老朋友”的经典方案。它们的区别,不是“好与坏”,而是“快刀切菜”和“慢火炖汤”的分工差异。