Spring AI框架完整指南

Spring AI 框架完整指南(2025 年最新版)

Spring AI 是 Spring 生态中专为 AI 工程设计的应用框架,于 2024 年正式推出,并在 2025 年快速发展,已成为 Java 开发者构建生成式 AI 应用的首选工具。它简化了与大型语言模型(LLM)、嵌入模型和向量数据库的集成,让企业级 Java 应用轻松接入 AI 能力,如聊天机器人、RAG(Retrieval Augmented Generation)和智能代理。根据官方文档和 2025 年最新发布(如 Spring AI 1.1 GA),本指南从基础到高级全面解析,结合代码示例和最佳实践,帮助你快速上手。内容基于 Spring 官方文档、GitHub 仓库和 2025 年社区资源。

一、Spring AI 概述

Spring AI 的核心使命是“连接企业数据和 API 与 AI 模型”,它不是 Python AI 框架(如 LangChain)的直接移植,而是为 Java/Spring 生态量身定制,提供可移植的抽象层。不同于传统 Spring 模块,它聚焦生成式 AI,强调简洁性和生产就绪(如自动配置、观测性)。

为什么选择 Spring AI?(2025 年价值)

  • Java 原生:无需切换到 Python,保持端到端 Java 开发。
  • Spring 集成:无缝嵌入 Spring Boot,支持自动装配和 Starter。
  • 多提供商支持:统一 API 接入 OpenAI、Anthropic、Ollama 等,避免供应商锁定。
  • 企业级特性:工具调用、RAG、评估框架,解决幻觉(hallucination)和安全性问题。
  • 2025 年现状:Spring AI 1.1 GA(2025 年 11 月发布),引入 Agents 框架和 Bench 评估工具;兼容 Spring Framework 7.x 和 Java 21+。

适用场景:聊天助手、文档 Q&A、智能搜索、图像生成、代理式 AI(如代码生成工具)。

二、关键特性

Spring AI 的特性围绕可移植性和易用性设计,以下是核心亮点:

特性描述2025 年亮点
ChatClient API流式/同步聊天接口,类似 WebClient,支持多模型。集成 MCP(Model Context Protocol)协议,提升代理间通信。
嵌入与向量存储嵌入模型生成向量,向量数据库(如 PGVector、Neo4j)支持 RAG。新增 SQL-like 过滤 API,简化元数据查询。
工具/函数调用模型调用客户端工具(如天气 API),实现实时交互。@Tool 注解简化服务器暴露,支持 OAuth 安全。
结构化输出AI 输出映射到 POJO,避免解析 JSON。增强类型安全,支持复杂对象。
观测性追踪 AI 操作,支持 Prometheus/OpenTelemetry。新增聊天完成日志,便于调试。
评估框架Bench 工具评估生成内容,检测幻觉。Spring AI Bench:基准测试和评估套件。
文档 ETL摄取/转换/加载框架,处理企业数据。升级 Tika 3.2.3,支持多模态(文本+图像)。
代理与 Advisors构建代理模式,封装 AI 模式(如重试、缓存)。Agents 框架:5 大模式(简单代理、工具链等)。

这些特性让 Spring AI 适用于从简单聊天到复杂代理的场景。

三、架构解析

Spring AI 的架构基于抽象层 + 实现多态:

  • 抽象层:ChatModel、EmbeddingModel、VectorStore 等接口,提供统一 API。
  • 实现层:每个提供商(如 OpenAIChatModel)实现抽象,支持同步/流式。
  • Spring Boot 层:Starter 自动配置,@EnableSpringAi 启用。
  • 高级层:Advisors(模式封装)、MCP(代理协议)。

流程示例:用户输入 → ChatClient → 模型提供商 → 输出(可流式) → Advisors 处理(日志/缓存)。

2025 更新:兼容 GraalVM Native,提升冷启动性能;MCP 支持 stdio/HTTP SSE 端点。

四、支持的 AI 提供商

Spring AI 支持 20+ 提供商,确保灵活性。

类别提供商示例支持功能
聊天/LLMOpenAI、Anthropic、Microsoft、Amazon Bedrock、Google Vertex、Ollama聊天、流式、工具调用
嵌入OpenAI、Hugging Face、Cohere、Google Vertex向量生成
图像OpenAI DALL-E、Stability AI、Amazon Bedrock文本到图像、多模态
向量数据库PGVector、Neo4j、Milvus、Pinecone、Redis、WeaviateRAG、相似性搜索

配置示例(application.yml):

spring:ai:openai:api-key: ${OPENAI_API_KEY}chat:options:model: gpt-4o embedding:options:model: text-embedding-ada-002

五、快速入门

步骤 1: 添加依赖

使用 Spring Initializr(start.spring.io)添加 spring-ai-openai-spring-boot-starter

Maven 示例:

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai-spring-boot-starter</artifactId></dependency>

步骤 2: 配置 API Key

在 application.yml 中设置密钥(环境变量推荐)。

步骤 3: 构建简单应用

启动类:

@SpringBootApplicationpublicclassSpringAiApp{publicstaticvoidmain(String[] args){SpringApplication.run(SpringAiApp.class, args);}}

六、基本用法代码示例

1. 聊天交互(ChatClient)

@ServicepublicclassChatService{privatefinalChatClient chatClient;publicChatService(ChatClient.Builder chatClientBuilder){this.chatClient = chatClientBuilder.build();}publicStringchat(String message){return chatClient.prompt().user(message).call().content();// 同步响应}}

流式示例:.call().stream() 返回 Flux。

2. 嵌入生成

@ServicepublicclassEmbeddingService{privatefinalEmbeddingModel embeddingModel;publicList<Double>embed(String text){EmbeddingResponse response = embeddingModel.embed(text);return response.getOutput().get(0).getEmbedding();}}

3. 图像生成

@ServicepublicclassImageService{privatefinalImageModel imageModel;publicStringgenerateImage(String prompt){ImageResponse response = imageModel.call(newPrompt(newImagePrompt(prompt)));return response.getResult().getOutput().getUrl();// 返回图像 URL}}

支持多模态:输入图像 + 文本。

4. RAG 示例(向量存储)

使用 PGVector:

@AutowiredprivateVectorStore vectorStore;publicSearchResultragSearch(String query){ vectorStore.add(List.of(Document.builder().content("企业数据...").build()));return vectorStore.similaritySearch(SimilarityRequest.query(query));}

集成 ChatClient:chatClient.prompt().user(query).advisors(ragAdvisor).call()

七、高级主题

1. RAG(Retrieval Augmented Generation)

  • 核心:嵌入查询 → 向量搜索 → 注入上下文 → LLM 生成。
  • 2025 实践:模块化 RAG 架构,支持多向量存储。

2. 代理(Agents)

Spring AI 1.1 引入 Agents 框架,支持 5 大模式:

  • 简单代理:基本工具调用。
  • 工具链:顺序执行工具。
  • 示例:天气代理(调用 MCP 工具)。
@ToolpublicStringgetWeather(String city){/* 调用 API */}

使用 Advisors 封装模式,如重试/缓存。

3. 评估与 Bench

使用 Spring AI Bench 评估生成质量:

// 伪代码:评估幻觉率BenchmarkResult result = bench.evaluate(generatedText, expected);

4. 安全与非功能需求

  • moderation 模型过滤内容。
  • OAuth for MCP。
  • 性能:虚拟线程支持,Native Image 兼容。

八、Spring Boot 集成与最佳实践

  • Starter 机制spring-ai-starter-vector-store-pgvector 等,一键集成。
  • 观测:集成 Micrometer,监控令牌使用。
  • 最佳实践
    • 使用 Advisors 封装模式,避免重复代码。
    • 优先结构化输出,减少解析错误。
    • 测试:Mock AI 提供商,单元测试 ChatClient。
    • 伦理:评估幻觉,遵守数据隐私(GDPR)。

2025 学习路线:从 ChatClient 入门 → RAG 项目 → Agents 高级 → Bench 优化。

Spring AI 让 Java 开发者轻松拥抱 AI 浪潮!需具体示例或 2025 迁移指南?随时问我。

Read more

湖南首条免费高速轨迹呈现:借助 Leaflet -Trackplayer 实现 WebGIS 可视化

湖南首条免费高速轨迹呈现:借助 Leaflet -Trackplayer 实现 WebGIS 可视化

目录 前言 一、相关背景 1、湖南首条免费高速-长永高速 2、还有哪些快到30年的高速 3、leaflet-trackplayer相关知识 二、基础数据准备 1、高速起止点地理编码 2、途径重要AOI和POI信息 3、高速区间道路信息 三、leaflet-trackplayer实战 1、行驶道路生成和设置 2、途径重要AOI和POI 3、车辆车牌信息模拟跟随 4、成果展示 四、总结 前言         在交通基础设施建设与数字化技术飞速发展的时代,湖南迎来了其首条免费高速公路的建成通车,这不仅是交通领域的一大突破,更是区域经济发展与民生改善的重要里程碑。然而,如何更好地展示这条高速公路的运行轨迹,为交通管理、规划以及公众出行提供直观,成为了我们亟待解决的问题。将WebGIS 技术与 Leaflet - Trackplayer 的结合,为我们提供了一种创新且高效的解决方案。WebGIS(Web 地理信息系统)

Windows 下 OpenClaw (小龙虾) 极速部署指南:从零基础到 Web 界面成功运行

🚀 [保姆级教程] Windows 下 OpenClaw (小龙虾) 极速部署指南:从零基础到 Web 界面成功运行 摘要:OpenClaw(开源 AI 代理框架)功能强大但配置项繁多,新手极易在插件配置阶段劝退。本文记录了一次在 Windows 环境下“极简启动”的完整实战过程。我们将采用**“核心优先,插件后置”**的策略,跳过所有非必要的第三方依赖(如 Notion/GitHub),仅配置核心大模型 API(以 Moonshot/Kimi 为例),快速跑通本地服务并验证 Web 控制面板。适合希望快速搭建本地 AI 助手的开发者。 关键词:OpenClaw, AI Agent, Windows 安装, Kimi API, Moonshot,

本地服务器用 OpenClaw + Open WebUI 搭建企业多部门 AI 平台(附 Docker 避坑指南)

本地服务器用 OpenClaw + Open WebUI 搭建企业多部门 AI 平台(附 Docker 避坑指南)

引言: 最近在尝试使用 OpenClaw,发现这个 AI 个人助理框架非常有意思。于是团队里就有人提出:能不能为公司的多个部门,分别搭建专属的 OpenClaw 服务器? 诚然,现在有钉钉、飞书等成熟的办公软件可以接入 AI,但对于一些尚未全面普及此类协作软件的企业(或者需要绝对私有化部署的团队)来说,独立搭建一套内部 AI 门户依然是刚需。 起初,我们考虑直接让大家通过 OpenClaw 自带的 Web 界面进行跨电脑访问。但实操后发现这存在致命缺陷: 1. 权限越界:自带的 Web 端拥有底层的配置编辑权限,暴露给普通员工极其不安全。 2. 无法溯源:多终端共用一个 Web 界面,根本无法追溯对话是由谁发起的。 3. 缺乏隔离:无法按部门精细化分配 API 额度或限制特定部门只能访问特定的 OpenClaw 节点,无法实现业务隔离。 为了解决这些痛点,我们最终确定了这套架构方案:

深度解析MiniMax M2.7:当AI学会“自我进化”,以及如何通过Ollama本地体验最强Agent

引言 不卷跑分不养虾,MiniMax M2.7 带来了一个真正能打的 Cowork Agent 自2026年3月18日起,AI圈的热词除了“龙虾”,又多了一个“自我进化”。当全行业还在忙着适配OpenClaw(龙虾框架)、追逐榜单跑分时,MiniMax已经让“龙虾自己拿起了筷子”。 在继M2.5发布仅一个月后,MiniMax毫无预兆地扔下了一枚深水炸弹——新一代Agent旗舰大模型M2.7。官方给它的定义是:MiniMax第一代深度参与自身进化的模型。这不仅仅是一次常规的版本号更新,它首次展示了“模型自我进化”的路径,标志着AI正从被动的“工具阶段”迈向具备主动演化能力的“系统阶段”。 本文将基于一手实测数据,深度拆解M2.7的技术突破与真实场景表现,并附上一份专为极客打造的本地体验指南——通过Ollama在终端中轻松调用云端M2.7,无需昂贵硬件,一键开启AI协作。 核心颠覆:不仅仅是Agent,更是“造Agent的人” 过去一年,业界大多把精力卷在了外部的Agent Harness上,任务编排与工具链越做越重。但面对真实的复杂业务,