Spring AI 集成国内大模型实战:千问/豆包(含多模态)+ Spring Boot 4.0.1 全攻略

Spring AI 集成国内大模型实战:千问/豆包(含多模态)+ Spring Boot 4.0.1 全攻略

引言

Spring AI 作为 Spring 官方推出的 AI 开发框架,极大简化了 Java 开发者集成大模型的流程;而 Spring Boot 4.0.1 作为最新稳定版,凭借 Java 17+ 优化、原生镜像等特性,能让 AI 应用兼具开发效率与运行性能。

国内开发者常面临的痛点是:如何基于 Spring AI 适配阿里通义千问、字节豆包等本土化大模型?是否支持多模态(图文问答)能力?本文将从「环境准备→文本交互集成→多模态能力落地」全流程拆解,结合 Spring Boot 4.0.1 给出可直接复用的代码示例,覆盖国内模型的核心使用场景。

一、前置准备:基础环境与依赖配置

1.1 环境要求(必满足)

  • JDK:17+(Spring Boot 4.0.1 强制要求)
  • 构建工具:Maven 3.8.8+ / Gradle 8.0+
  • Spring 版本:Spring Boot 4.0.1 + Spring AI 0.8.1(最佳兼容组合)
  • 网络:确保服务器/本地能访问国内大模型 API 地址(国内服务器无需代理)

1.2 国内模型 API 密钥获取

模型密钥获取平台核心信息
通义千问阿里云百炼大模型平台(dashscope.aliyun.com)获取 API-KEY
字节豆包火山方舟平台(volcengine.com/product/ark)获取 api-key + 接口地址

1.3 基础依赖配置

先搭建 Spring Boot 4.0.1 项目,在 pom.xml 中添加核心依赖(后续按模型补充专属依赖):

<?xml version="1.0" encoding="UTF-8"?><projectxmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>4.0.1</version><relativePath/></parent><groupId>com.example</groupId><artifactId>spring-ai-china-llm-demo</artifactId><version>0.0.1-SNAPSHOT</version><!-- 核心基础依赖 --><dependencies><!-- Spring Web:提供接口测试能力 --><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><!-- Spring AI 核心依赖 --><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-ai</artifactId><version>0.8.1</version></dependency><!-- 测试依赖 --><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency></dependencies><build><plugins><plugin><groupId>org.springframework.boot</groupId><artifactId>spring-boot-maven-plugin</artifactId><configuration><source>17</source><target>17</target></configuration></plugin></plugins></build></project>

二、核心场景1:文本交互集成(最常用)

2.1 集成阿里通义千问(官方适配,推荐)

Spring AI 对千问有官方适配依赖,无需自定义客户端,配置即可用。

步骤1:添加千问专属依赖
<!-- Spring AI 通义千问适配依赖 --><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-ai-dashscope</artifactId><version>0.8.1</version></dependency>
步骤2:配置千问 API 信息

application.yml 中添加配置(替换为你的 API-KEY):

spring:ai:dashscope:api-key: sk-xxxxxx # 阿里云百炼平台获取的API-KEYchat:model: qwen-turbo # 可选:qwen-plus、qwen-max、qwen-72b-chat等temperature:0.7# 随机性(0-1),值越小越精准max-tokens:2048# 最大生成token数
步骤3:编写千问文本调用代码

Spring AI 自动配置 DashScopeChatClient,直接注入使用:

importorg.springframework.ai.dashscope.DashScopeChatClient;importorg.springframework.beans.factory.annotation.Autowired;importorg.springframework.web.bind.annotation.GetMapping;importorg.springframework.web.bind.annotation.RequestParam;importorg.springframework.web.bind.annotation.RestController;/** * 通义千问文本交互控制器 */@RestControllerpublicclassQwenTextController{@AutowiredprivateDashScopeChatClient dashScopeChatClient;/** * 调用千问生成文本回答 * @param prompt 提问内容 * @return AI 回答 */@GetMapping("/ai/qwen/chat")publicStringchatWithQwen(@RequestParamString prompt){// 极简调用:直接传入Promptreturn dashScopeChatClient.call(prompt);// 进阶调用(自定义参数):/* DashScopeChatRequest request = DashScopeChatRequest.builder() .prompt(prompt) .model("qwen-plus") // 覆盖配置文件模型 .temperature(0.5) .maxTokens(1000) .build(); return dashScopeChatClient.call(request).getResult().getOutput().getContent(); */}}
步骤4:测试接口

启动项目后访问:
http://localhost:8080/ai/qwen/chat?prompt=用Spring Boot 4.0.1写一个用户注册接口
即可得到千问生成的标准化代码回答。

2.2 集成字节豆包(OpenAI 兼容模式)

豆包暂无 Spring AI 官方适配,但支持「OpenAI 兼容模式」,可复用 OpenAI 客户端调用。

步骤1:添加 OpenAI 适配依赖
<!-- Spring AI OpenAI 适配依赖(兼容豆包接口) --><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-ai-openai</artifactId><version>0.8.1</version></dependency>
步骤2:配置豆包兼容接口信息
spring:ai:openai:api-key: your-doubao-api-key # 豆包平台获取的API-KEYbase-url: https://www.doubao.com/api/v1 # 豆包OpenAI兼容接口前缀chat:model: doubao-pro # 豆包模型名称(如doubao-pro、doubao-lite)temperature:0.7max-tokens:2048
步骤3:编写豆包文本调用代码
importorg.springframework.ai.openai.OpenAiChatClient;importorg.springframework.beans.factory.annotation.Autowired;importorg.springframework.web.bind.annotation.GetMapping;importorg.springframework.web.bind.annotation.RequestParam;importorg.springframework.web.bind.annotation.RestController;/** * 豆包文本交互控制器(兼容OpenAI模式) */@RestControllerpublicclassDouBaoTextController{@AutowiredprivateOpenAiChatClient openAiChatClient;@GetMapping("/ai/doubao/chat")publicStringchatWithDouBao(@RequestParamString prompt){// 调用逻辑与OpenAI完全一致return openAiChatClient.call(prompt);}}

三、核心场景2:多模态集成(图文问答)

Spring AI 0.8.1+ 原生支持多模态能力(文本+图片),核心是将图片转为 Base64 编码后传入 Prompt,不同国内模型的适配方式略有差异。

3.1 千问多模态集成(官方适配,最便捷)

千问 qwen-vl/qwen-vl-plus 模型原生支持图文问答,Spring AI 提供完整封装。

步骤1:确认配置(复用千问依赖,修改模型为多模态版本)
spring:ai:dashscope:api-key: sk-xxxxxx chat:model: qwen-vl # 多模态专属模型temperature:0.7
步骤2:编写千问多模态调用代码
importorg.springframework.ai.dashscope.DashScopeMultiModalChatClient;importorg.springframework.ai.image.ImageContent;importorg.springframework.ai.multimodal.MultiModalPrompt;importorg.springframework.beans.factory.annotation.Autowired;importorg.springframework.web.bind.annotation.PostMapping;importorg.springframework.web.bind.annotation.RequestParam;importorg.springframework.web.bind.annotation.RestController;importorg.springframework.web.multipart.MultipartFile;importjava.util.Base64;/** * 千问多模态(图文问答)控制器 */@RestControllerpublicclassQwenMultiModalController{@AutowiredprivateDashScopeMultiModalChatClient multiModalChatClient;/** * 上传图片+文本提问,调用千问图文问答 * @param file 图片文件(PNG/JPG) * @param prompt 文本提问 * @return 多模态回答 * @throws Exception 图片编码异常 */@PostMapping("/ai/qwen/multimodal/chat")publicStringmultiModalChat(@RequestParam("file")MultipartFile file,@RequestParam("prompt")String prompt)throwsException{// 1. 图片转Base64编码(千问要求图片为Base64格式)byte[] imageBytes = file.getBytes();String base64Image =Base64.getEncoder().encodeToString(imageBytes);// 2. 封装多模态Prompt:文本+图片ImageContent imageContent =newImageContent("data:image/jpeg;base64,"+ base64Image);MultiModalPrompt multiModalPrompt =newMultiModalPrompt(prompt, imageContent);// 3. 调用千问多模态模型return multiModalChatClient.call(multiModalPrompt).getResult().getOutput().getContent();}}
步骤3:测试多模态接口

通过 Postman/表单提交:

  • 请求方式:POST
  • 地址:http://localhost:8080/ai/qwen/multimodal/chat
  • 参数:
    • file:上传图片(如代码截图、流程图);
    • prompt:文本提问(如“分析这张图片的代码逻辑并优化”)。

3.2 豆包多模态集成(兼容/自定义模式)

方式1:OpenAI 兼容模式(推荐)
importorg.springframework.ai.openai.OpenAiChatClient;importorg.springframework.ai.openai.api.OpenAiApi;importorg.springframework.ai.openai.api.OpenAiChatCompletionRequest;importorg.springframework.beans.factory.annotation.Autowired;importorg.springframework.web.bind.annotation.PostMapping;importorg.springframework.web.bind.annotation.RequestParam;importorg.springframework.web.bind.annotation.RestController;importorg.springframework.web.multipart.MultipartFile;importjava.util.Base64;importjava.util.List;/** * 豆包多模态控制器(兼容OpenAI模式) */@RestControllerpublicclassDouBaoMultiModalController{@AutowiredprivateOpenAiChatClient openAiChatClient;@PostMapping("/ai/doubao/multimodal/chat")publicStringdouBaoMultiModalChat(@RequestParam("file")MultipartFile file,@RequestParam("prompt")String prompt)throwsException{// 1. 图片转Base64byte[] imageBytes = file.getBytes();String base64Image =Base64.getEncoder().encodeToString(imageBytes);// 2. 构建OpenAI格式多模态消息OpenAiChatCompletionRequest.Message message =OpenAiChatCompletionRequest.Message.builder().role(OpenAiApi.ChatRole.USER.value()).content(List.of(// 文本部分OpenAiChatCompletionRequest.Message.ContentPart.builder().type("text").text(prompt).build(),// 图片部分OpenAiChatCompletionRequest.Message.ContentPart.builder().type("image_url").imageUrl(OpenAiChatCompletionRequest.Message.ImageUrl.builder().url("data:image/jpeg;base64,"+ base64Image).build()).build())).build();// 3. 调用豆包兼容接口return openAiChatClient.call(List.of(message)).getResult().getOutput().getContent();}}
方式2:自定义客户端(原生接口)

若兼容模式不可用,直接调用豆包原生多模态接口:

importorg.springframework.beans.factory.annotation.Value;importorg.springframework.http.*;importorg.springframework.web.bind.annotation.PostMapping;importorg.springframework.web.bind.annotation.RequestParam;importorg.springframework.web.bind.annotation.RestController;importorg.springframework.web.client.RestTemplate;importorg.springframework.web.multipart.MultipartFile;importjava.util.Base64;importjava.util.List;importjava.util.Map;/** * 豆包多模态自定义客户端(原生接口) */@RestControllerpublicclassCustomDouBaoMultiModalController{@Value("${doubao.api-key}")privateString apiKey;@Value("${doubao.base-url}")privateString baseUrl;privatefinalRestTemplate restTemplate =newRestTemplate();@PostMapping("/ai/doubao/custom/multimodal/chat")publicStringcustomMultiModalChat(@RequestParam("file")MultipartFile file,@RequestParam("prompt")String prompt)throwsException{// 1. 图片转Base64byte[] imageBytes = file.getBytes();String base64Image =Base64.getEncoder().encodeToString(imageBytes);// 2. 构建请求头HttpHeaders headers =newHttpHeaders(); headers.setContentType(MediaType.APPLICATION_JSON); headers.set("Authorization","Bearer "+ apiKey);// 3. 构建豆包原生请求体Map<String,Object> requestBody =Map.of("model","doubao-multimodal","messages",List.of(Map.of("role","user","content",List.of(Map.of("type","text","text", prompt),Map.of("type","image","image", base64Image)))),"temperature",0.7);// 4. 发送请求并解析响应HttpEntity<Map<String,Object>> request =newHttpEntity<>(requestBody, headers);ResponseEntity<Map> response = restTemplate.postForEntity( baseUrl +"/chat/multimodal/completions", request,Map.class);if(response.getStatusCode().is2xxSuccessful()){List<Map<String,Object>> choices =(List<Map<String,Object>>) response.getBody().get("choices");return(String) choices.get(0).get("message").get("content");}return"调用失败:"+ response.getStatusCode();}}

对应的配置:

doubao:api-key: your-doubao-api-key base-url: https://www.doubao.com/api/v1 

四、关键注意事项(避坑指南)

4.1 版本兼容

  • 必须使用 Spring AI 0.8.1+(适配 Spring Boot 4.0.1),低版本会出现依赖冲突;
  • 国内模型需选择对应版本(千问多模态用 qwen-vl,豆包多模态用 doubao-multimodal)。

4.2 密钥安全

生产环境切勿硬编码 API 密钥,通过环境变量注入:

spring:ai:dashscope:api-key: ${DASHSCOPE_API_KEY}# 从环境变量读取

4.3 图片处理

  • 图片格式:支持 JPG/PNG,部分模型限制大小(≤10MB);
  • 性能优化:大图片先压缩分辨率,再转 Base64(减少请求体积)。

4.4 网络与接口适配

  • 国内服务器无需代理,海外服务器需配置国内代理;
  • 定期确认模型官方接口地址(可能微调)。

五、总结

Spring AI 结合 Spring Boot 4.0.1 可高效集成国内主流大模型,核心要点如下:

  1. 文本交互:千问用官方适配依赖,豆包复用 OpenAI 兼容模式,配置简单、调用便捷;
  2. 多模态能力:核心是图片 Base64 编码,千问有官方封装,豆包可通过兼容/自定义模式实现;
  3. 核心原则:国内模型集成的关键是「鉴权方式 + 接口格式」适配,Spring AI 已封装通用逻辑,只需少量配置即可落地。

通过本文的实操方案,你可快速构建基于国内大模型的 AI 应用,兼顾 Spring 生态的优雅性与本土化模型的适配性。若需集成文心一言、讯飞星火等其他国内模型,核心逻辑一致:确认适配方式(官方/兼容/自定义)→ 配置 API 信息 → 封装 Prompt 调用。

Read more

【ZYNQ必学】PS-PL架构完全解析:从零理解ARM+FPGA融合设计(附实战案例)

【ZYNQ必学】PS-PL架构完全解析:从零理解ARM+FPGA融合设计(附实战案例) 📚 目录导航 文章目录 * 【ZYNQ必学】PS-PL架构完全解析:从零理解ARM+FPGA融合设计(附实战案例) * 📚 目录导航 * 概述 * 一、PS-PL架构基础概念 * 1.1 什么是PS和PL * 1.1.1 PS(处理系统)定义 * 1.1.2 PL(可编程逻辑)定义 * 1.1.3 PS vs PL对比 * 1.2 ZYNQ基本结构 * 1.2.1 ZYNQ-7000系列架构 * 1.2.2 ZYNQ-7000的整体架构 * 1.3

VHDL数字时钟在FPGA上的系统学习路径

从零开始打造一个VHDL数字时钟:FPGA上的系统性学习实践 你有没有试过,在FPGA开发板上点亮第一个LED的那一刻,心里涌起一股“我正在操控硬件”的兴奋?但很快就会发现——让灯亮只是起点。真正让人着迷的是: 如何用代码‘画’出电路,让时间在芯片里流淌 。 今天我们就来干一件“小而完整”的事: 用VHDL语言,在FPGA上从头构建一个数字时钟 。它不只是“显示时间”这么简单,而是一个涵盖时序逻辑、状态控制、人机交互和物理驱动的微型系统工程。通过这个项目,你会真正理解什么叫“写代码就是在设计电路”。 为什么选“数字时钟”作为入门项目? 很多初学者一上来就想做图像处理、通信协议或者神经网络加速器,结果被复杂的接口和算法压得喘不过气。其实,最好的入门项目是那种“看得见、摸得着、改了立刻有反馈”的系统。 数字时钟恰恰满足这一点: * 它有明确的时间行为(每秒走一次) * 有人机交互(按键调时间) * 有输出设备(数码管闪烁可见) * 所有模块都可以逐步搭建、单独验证 更重要的是,

无人机按点飞行脚本

#!/usr/bin/env python # 指定使用系统中的 python 解释器来运行该脚本(Linux 下 ROS 必须) import rospy # ROS 的 Python 客户端库,用于节点、话题、服务等操作 import mavros # MAVROS 的 Python 接口库,用于和飞控(PX4/ArduPilot)通信 from geometry_msgs.msg import PoseStamped # 引入带时间戳的位姿消息,用于发布位置控制指令 from mavros_msgs.msg import State # 引入飞控状态消息(连接状态、模式、解锁状态等) from mavros_

【仅限首批200家企业开放】Seedance 2.0算力成本健康度深度审计(含GPU/TPU/FPGA异构资源归因分析报告)

第一章:Seedance 2.0算力成本健康度审计白皮书发布与准入机制说明 Seedance 2.0正式发布《算力成本健康度审计白皮书》,旨在建立可量化、可验证、可持续演进的算力资源效能评估体系。该白皮书定义了三大核心健康度指标:单位算力能耗比(kW/TOPS)、任务调度偏差率(≤5%为健康阈值)、资源闲置衰减指数(72小时滚动均值),并配套开放审计接口与参考实现。 准入机制核心原则 * 所有接入Seedance 2.0主网的算力节点须通过自动化健康度快照校验 * 首次注册需提交连续48小时的本地监控日志,格式遵循OpenTelemetry Protocol(OTLP)标准 * 动态准入采用双阈值熔断:单次审计失败触发观察期,连续两次失败自动移出服务发现列表 审计工具链部署示例 # 下载并运行轻量级审计代理(v2.0.3+) curl -sL https://seedance.io/audit/agent-v2.0.3.sh | bash # 启动后自动采集GPU利用率、