Spring AI系列——开发MCP Server和MCP Client(SSE方式)

Spring AI系列——开发MCP Server和MCP Client(SSE方式)

文章目录


一、概述

MCP架构图

在这里插入图片描述

MCP生命周期

在这里插入图片描述

二、创建MCP SERVER的java工程

生成初始化工程代码

访问网址:https://start.spring.io/
填写基本信息→添加依赖项

在这里插入图片描述


选择Server

在这里插入图片描述


点击生成

在这里插入图片描述
在这里插入图片描述


解压后用IDEA打开

修改pom.xml文件

把spring-ai-starter-mcp-server依赖改为spring-ai-starter-mcp-server-webmvc

在这里插入图片描述


完整pom.xml内容

<?xml version="1.0" encoding="UTF-8"?><projectxmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>3.5.8</version><relativePath/><!-- lookup parent from repository --></parent><groupId>com.example</groupId><artifactId>test-mcp-server</artifactId><version>0.0.1-SNAPSHOT</version><name>test-mcp-server</name><description>Demo project for Spring Boot</description><url/><licenses><license/></licenses><developers><developer/></developers><scm><connection/><developerConnection/><tag/><url/></scm><properties><java.version>17</java.version><spring-ai.version>1.1.2</spring-ai.version></properties><dependencies><dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-mcp-server-webmvc</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency></dependencies><dependencyManagement><dependencies><dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-bom</artifactId><version>${spring-ai.version}</version><type>pom</type><scope>import</scope></dependency></dependencies></dependencyManagement><build><plugins><plugin><groupId>org.springframework.boot</groupId><artifactId>spring-boot-maven-plugin</artifactId></plugin></plugins></build></project>

定义服务类MathTool

在这里插入图片描述
packagecom.example.tool;importorg.springframework.ai.tool.annotation.Tool;publicclassMathTool{@Tool(description ="两个数字相加")publicstaticintaddNumbers(int a,int b){return a + b;}@Tool(description ="两个数字相减")publicstaticintsubtractNumbers(int a,int b){return a - b;}}

通过配置类的方式把MathTool注入到Spring容器中

创建config包,在下面创建McpConfig类

在这里插入图片描述
packagecom.example.test_mcp_server.config;importcom.example.tool.MathTool;importorg.springframework.ai.tool.ToolCallbackProvider;importorg.springframework.ai.tool.method.MethodToolCallbackProvider;importorg.springframework.context.annotation.Bean;importorg.springframework.context.annotation.Configuration;@ConfigurationpublicclassMcpConfig{@BeanpublicToolCallbackProvidermathTool(){returnMethodToolCallbackProvider.builder().toolObjects(newMathTool()).build();}}

修改配置文件application.yaml

配置内容为:

server:port:8080spring:application:name: math_mcp_server ai:mcp:server:enabled:truename: test_mcp_server version: 1.0.0 sse-endpoint: /api/v1/sse sse-message-endpoint: /api/v1/mcp capabilities:tool:truelogging:level:# 查看MCP详细日志io.modelcontextprotocol: TRACE org.springframework.ai.mcp: TRACE 

启动服务

在这里插入图片描述


启动成功,并提示注册了两个Tool

在这里插入图片描述

三、如何使用MCP Server

方式一:使用Chatbox连接MCP Server

设置AI模型提供方

在这里插入图片描述


我这里选择智谱的ChatGLM6B, API密钥去智谱官网申请,点击检查

在这里插入图片描述


在这里插入图片描述


点确认

在这里插入图片描述


在这里插入图片描述

配置MCP服务器

点击左侧的MCP

在这里插入图片描述


添加服务器

在这里插入图片描述


在这里插入图片描述


配置信息后点击测试

在这里插入图片描述


编写的两个工具成功显示

在这里插入图片描述


**PS:必须点测试,这样才能完成服务端的初始化连接**
服务端日志:

在这里插入图片描述

点击保存

在这里插入图片描述

使用MCP Server

按ECS键退出设置,点击新对话,可以看到刚才添加的MCP服务

在这里插入图片描述

输入“运维小兵的计算服务有哪些功能”
AI给的回复很好的总结了工具的功能

在这里插入图片描述

问:8加7等于几
工具成功调用

在这里插入图片描述


服务端日志内容

在这里插入图片描述


测试完毕,符合预期

方式二:开发一个Client来连接Server

创建java工程

跟创建MCP Server类似,改下Artifact名字

在这里插入图片描述


添加Client的依赖

在这里插入图片描述


在这里插入图片描述


保存工程文件,解压后用IDEA打开

修改pom.xml,添加核心依赖

<properties><java.version>17</java.version><spring-ai.version>1.1.2</spring-ai.version></properties><dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><!--调用智谱系列大模型的依赖--><dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-model-zhipuai</artifactId></dependency><dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-mcp-client-webflux</artifactId></dependency></dependencies><dependencyManagement><dependencies><dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-bom</artifactId><version>${spring-ai.version}</version><type>pom</type><scope>import</scope></dependency></dependencies></dependencyManagement>

配置application.yaml

server:port:8081spring:application:name: test-mcp-client ai:zhipuai:# 智谱官网创建API Key,配置到机器的环境变量ZHIPU_KEYapi-key: ${ZHIPU_KEY}base-url:"https://open.bigmodel.cn/api/paas"# 配置模型地址chat:options:model: glm-4-flash mcp:client:sse:connections:server1:# 填写MCP Server的地址url: http://localhost:8080sse-endpoint: /api/v1/sse 

创建Controller

在这里插入图片描述

ConnectMcpServer.java

packagecom.example.test_mcp_client.controller;importorg.springframework.ai.chat.client.ChatClient;importorg.springframework.ai.tool.ToolCallbackProvider;importorg.springframework.web.bind.annotation.GetMapping;importorg.springframework.web.bind.annotation.RequestMapping;importorg.springframework.web.bind.annotation.RequestParam;importorg.springframework.web.bind.annotation.RestController;@RestController@RequestMapping("/mcp")publicclassConnectMcpServer{privatefinalChatClient chatClient;publicConnectMcpServer(ChatClient.Builder builder,ToolCallbackProvider toolCallbackProvider){this.chatClient = builder .defaultToolCallbacks(toolCallbackProvider.getToolCallbacks()).build();}@GetMapping("/test")publicStringtest(@RequestParam(name ="query")String query){return chatClient.prompt().system("你是一个有用的AI助手").user(query).call().content();}}

启动Client服务

服务启动成功

在这里插入图片描述


SERVER端完成初始化

在这里插入图片描述

访问接口进行测试

GET http://localhost:8081/mcp/test?query=8加6等于几

在这里插入图片描述


查看SERVER日志


完美。

四、资料

Spring AI官网:https://docs.spring.io/spring-ai/reference/index.html
视频:https://www.bilibili.com/video/BV1yT8qzMEbd/?spm_id_from=333.337.search-card.all.click&vd_source=0467ab39cc5ec5940fee22a0e7797575

Read more

PyTorch生成式人工智能(24)——使用PyTorch构建Transformer模型

PyTorch生成式人工智能(24)——使用PyTorch构建Transformer模型

PyTorch生成式人工智能(24)——使用PyTorch构建Transformer模型 * 0. 前言 * 1. 注意力机制 和 Transformer * 1.1 注意力机制 * 1.2 Transformer 架构 * 1.3 不同类型的 Transformer * 2. 构建编码器 * 2.1 注意力机制 * 2.2 创建编码器 * 3. 构建编码器-解码器 Transformer * 3.1 创建解码器层 * 3.2 创建编码器-解码器 Transformer * 4. 基于 Transformer 构建机器翻译模型 * 4.1 定义生成器 * 4.2 创建翻译模型 * 小结 * 系列链接

IDEA接入DeepSeek最新教程Proxy AI(codeGpt) [2025版]

IDEA接入DeepSeek最新教程Proxy AI(codeGpt) [2025版]

IDEA引入DeepSeek 将 IntelliJ IDEA(JetBrains 开发的 Java 集成开发环境)与 DeepSeek(深度求索的技术能力)结合,通常涉及利用 AI 技术增强开发效率或扩展 IDE 功能,安装完成后,结合 IntelliJ IDEA 的开发者工具属性,可探索以下方向: 智能代码补全:基于 DeepSeek 的代码大模型(如 Code LLM)提供更精准的代码建议。 代码缺陷检测:利用 AI 识别潜在 Bug 或安全漏洞。 自动化文档生成:根据代码逻辑自动生成注释或 API 文档。 自然语言交互:通过对话式 AI(如 ChatGPT 风格)辅助开发者解决问题。 代码重构建议:基于大模型分析代码结构,

LTX-2.3:开源AI视频生成的新标杆,一个模型同时生成视频和音频

LTX-2.3:开源AI视频生成的新标杆,一个模型同时生成视频和音频

当 AI 视频生成不再是闭源巨头的专利 在 AI 视频生成领域,我们见证了太多令人惊艳的 demo,但它们大多藏在闭源的高墙之后。而今天,Lightricks 发布的 LTX-2.3 正在改写这个故事——这是一个完全开源、可本地运行、能同时生成高质量视频和同步音频的基础模型。更重要的是,它不只是一个实验室产物,而是一个真正为生产环境设计的创作引擎。 什么是 LTX-2.3? LTX-2.3 是 Lightricks 推出的最新一代音视频生成基础模型,它基于 Diffusion Transformer(DiT)架构构建,拥有约 190 亿参数,其中 140 亿用于视频处理,50 亿用于音频生成。这是业界首批能够在单一统一架构中同时生成同步音频和视频的开源模型之一。 与前代 LTX-2 相比,2.3 版本带来了全面的质量提升。它重建了

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

目录 写在前面 OpenClaw 是什么? 蓝耘平台是什么?与 OpenClaw 的关系 步骤一:极速安装,一行命令搞定环境 步骤二:启动向导,初始化配置参数 步骤 三:注入灵魂,获取蓝耘MaaS API Key 步骤四:打通渠道,搭建飞书长连接桥梁 步骤五:引擎点火,启动核心网关服务 步骤六:仪表盘检阅,后台状态可视化 步骤七:实战演练,验证智能交互效果 快速排错提示 写在末尾 写在前面 本文面向:想在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,并通过飞书长连接模式实现 AI 机器人的用户。 内容涵盖:从零开始安装配置、对接飞书机器人、验证与排错的完整流程,