AI大模型实用(三)Java快速实现智能体整理(Springboot+LangChain4j)

目录

1.1 简介

1.2 示例

步骤一: 添加pom

步骤二:配置

步骤三:流式输出

步骤四: 正常输出

步骤五: 【类似函数调用】AI Service接口

1.3 调试问题

问题1: ClassNotFoundException: dev.langchain4j.exception.IllegalConfigurationException

问题2: overriding is disabled

问题3 :dev.langchain4j.exception.IllegalConfigurationException

1.4  langchain4j与springAI对比


1.1 简介

一个基于 Java 的库,旨在简化自然语言处理(NLP)和大型语言模型(LLM)的集成;

提供了大量现成的组件(文档加载器、工具、链),用于构建AI应用,是目前Java生态中最接近Python LangChain成熟度的选择。

1.2 示例

步骤一: 添加pom

<!-- https://mvnrepository.com/artifact/dev.langchain4j/langchain4j --> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j</artifactId> <version>1.9.1</version> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-core</artifactId> <version>1.9.1</version> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-open-ai-spring-boot-starter</artifactId> <version>1.9.1-beta17</version> </dependency> <!-- 导入响应式编程依赖包--> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-reactor</artifactId> <version>1.9.1-beta17</version> </dependency>

步骤二:配置

langchain4j.open-ai.chat-model.api-key=你的deepseekkey langchain4j.open-ai.chat-model.model-name=deepseek-chat langchain4j.open-ai.chat-model.base-url=https://api.deepseek.com langchain4j.open-ai.chat-model.log-requests=true langchain4j.open-ai.chat-model.log-responses=true

如果没有key:

langchain4j.open-ai.chat-model.api-key=demo

langchain4j.open-ai.chat-model.model-name=gpt-4o-mini

langchain4j.open-ai.chat-model.base-url=http://langchain4j.dev/demo/openai/v1

步骤三:流式输出

package com.ai.LangChain4j; import dev.langchain4j.model.chat.StreamingChatModel; import dev.langchain4j.model.openai.OpenAiStreamingChatModel; import org.springframework.beans.factory.annotation.Value; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import java.util.HashMap; import java.util.Map; //创建流式聊天模型配置 @Configuration public class Langchain4jStreamingChatModelConfig { @Value("${langchain4j.open-ai.chat-model.api-key}") private String apiKey; @Value("${langchain4j.open-ai.chat-model.base-url}") private String baseUrl; @Value("${langchain4j.open-ai.chat-model.model-name}") private String modelName; @Value("${langchain4j.open-ai.chat-model.log-requests}") private Boolean logRequests; @Value("${langchain4j.open-ai.chat-model.log-responses}") private Boolean logResponses; @Bean("langchain4jStreamingChatModel") public StreamingChatModel streamingChatModel() { Map<String,String> map = new HashMap<>(); map.put("Content-Type","application/json"); map.put("charset","utf-8"); return OpenAiStreamingChatModel.builder() .baseUrl(baseUrl) .apiKey(apiKey) .modelName(modelName) //使用的模型名称 .temperature(0.7) // 控制回答的随机性(0-1,越高越随机) .maxTokens(1000) // 单次回答的最大token数 .logRequests(logRequests) // 记录请求日志 .logResponses(logResponses) // 记录响应日志 .returnThinking(true) // 是否返回AI的思考过程 // .customHeaders(map) .build(); } } @Resource(name = "langchain4jStreamingChatModel") private OpenAiStreamingChatModel streamingChatModel; @RequestMapping(value = "/chatstream") public Flux<String> chatstream(@RequestParam("message") String prompt) { return Flux.create(emitter -> { streamingChatModel.chat(prompt, new StreamingChatResponseHandler() { @Override public void onPartialResponse(String partialResponse) { emitter.next(partialResponse); } @Override public void onCompleteResponse(ChatResponse chatResponse) { emitter.complete(); } @Override public void onError(Throwable throwable) { emitter.error(throwable); } }); }); } 

参考:https://www.cnblogs.com/timothy020/p/19043509

步骤四: 正常输出

@Autowired private OpenAiChatModel model; @RequestMapping("/chat") public String chat(String message) { return model.chat(message); }

步骤五: 【类似函数调用】AI Service接口

package com.ai.LangChain4j; import dev.langchain4j.service.SystemMessage; import dev.langchain4j.service.spring.AiService; import dev.langchain4j.service.UserMessage; /** * AI Service接口 :可把它看作标准 Spring Boot的 @Service,但带有 AI 功能。 * * 当应用程序启动时,LangChain4j 启动器将扫描类路径并找到所有带有 @AiService 注解的接口。对于每个找到的 AI 服务,它将使用应用程序上下文中的所有 LangChain4j 组件创建此接口的实现,并将其注册为一个 bean * * 最大限度的调用函数工具:@UserMessage 我们通过提示词,让大模型尽量考虑调用我们的函数工具 */ @AiService interface Assistant { @UserMessage("针对提出的问题:{{it}},请尽量调用已有的函数工具") @SystemMessage("You are a polite assistant") String chat(String userMessage); } package com.ai.LangChain4j; import dev.langchain4j.agent.tool.Tool; /** 定义工具类(类似函数调用) * @Tool用于对函数进行功能描述 * 描述的越清楚,大模型越容易考虑是否需要使用函数工具 *工具可以是任何东西:网页搜索、外部API调用、或执行一段特定代码等 * * */ public class CalculatorTool { @Tool("计算字符串的长度") int stringLength(String s) { System.out.println("Called stringLength with + s + "'"); return s.length(); } @Tool("计算两个整数的和") int add(int a, int b) { System.out.println("Called add with a=" + a + ", b=" + b); return a + b; } @Tool("计算整数的平方根") double sqrt(int x) { System.out.println("Called sqrt with x=" + x); return Math.sqrt(x); } } @Autowired private ChatModel chatModel; @Autowired Assistant assistant; @GetMapping("/assistantchat") public String assistantchat(String message) { assistant = AiServices.builder(Assistant.class) .chatModel(chatModel) .tools(new CalculatorTool()) .build(); return assistant.chat(message); }

注: 运行时有日志

 @RequestMapping("/chat") public String chat(String message) { return model.chat(message); }

运行结果:

@GetMapping("/assistantchat") public String assistantchat(String message) { assistant = AiServices.builder(Assistant.class) .chatModel(chatModel) .tools(new CalculatorTool()) .build(); return assistant.chat(message); }

运行结果:

参考:

https://blog.ZEEKLOG.net/matrixlzp/article/details/150610135

https://blog.ZEEKLOG.net/m0_71741473/article/details/148379520

https://cloud.tencent.com/developer/article/2512470

1.3 调试问题

问题1: ClassNotFoundException: dev.langchain4j.exception.IllegalConfigurationException

解决:  检查

application.properties的配置

langchain4j.open-ai.chat-model.api-key=demo langchain4j.open-ai.chat-model.model-name=gpt-4o-mini langchain4j.open-ai.chat-model.base-url=http://langchain4j.dev/demo/openai/v1

注: 如果你暂时没有密钥,也可以使用 LangChain4j 提供的演示密钥(同上),这个密钥是免费的,有使用配额限制,且仅限于 gpt-4o-mini 模型

注: 如果已经有密钥,直接替换即可。

问题2: overriding is disabled

The bean 'openAiChatModel', defined in class path resource [org/springframework/ai/autoconfigure/openai/OpenAiAutoConfiguration.class], could not be registered. A bean with that name has already been defined in class path resource [dev/langchain4j/openai/spring/AutoConfig.class] and overriding is disabled.

解决: 

去掉langchain4j的openapi相关的依赖或者去掉SpringAI的openapi相关的依赖

<!-- &lt;!&ndash; LangChain4j OpenAI 支持(用于兼容 OpenAI 接口的模型,如 GPT 或阿里云百炼) &ndash;&gt;--> <!-- <dependency>--> <!-- <groupId>dev.langchain4j</groupId>--> <!-- <artifactId>langchain4j-open-ai</artifactId>--> <!-- <version>1.9.1</version>--> <!-- </dependency>--><!-- <dependency>--> <!-- <groupId>dev.langchain4j</groupId>--> <!-- <artifactId>langchain4j-open-ai-spring-boot-starter</artifactId>--> <!-- <version>1.9.1-beta17</version>--> <!-- </dependency>-->

问题3 :dev.langchain4j.exception.IllegalConfigurationException

解决: 该问题是langchain4j-spring-boot-starter版本兼容问题。 可以对应修改和langchain4j生态兼容的版本。例如 <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-spring-boot-starter</artifactId> <version>1.9.1-beta17</version> </dependency>

1.4  langchain4j与springAI对比

核心功能对比

  1. ‌设计理念与定位‌: 
    • Spring AI 由 Spring 官方团队维护,核心目标是简化 AI 模型集成,提供统一 API 调用(如 OpenAI、Azure OpenAI),降低开发门槛,尤其适合已使用 Spring 生态的项目。‌‌
    • LangChain4j 是 LangChain 的 Java 实现,专注于模块化设计,支持智能 Agent、链式调用、记忆管理等高级功能,灵活性更高,但需要开发者手动组装组件。‌‌
  2. ‌高级功能支持‌: 
    • ‌多步骤推理与 Agent 管理‌:LangChain4j 内置 Agent 框架,支持复杂工作流编排(如动态工具调用、多条件决策),而 Spring AI 需开发者自行实现逻辑。‌‌
    • ‌记忆与上下文管理‌:LangChain4j 提供多样化记忆存储方案(如会话记忆、长期记忆),Spring AI 需手动管理对话状态。‌‌
    • ‌工具集成‌:LangChain4j 支持直接定义和调用外部工具(如天气查询、计算器),Spring AI 需额外处理函数调用。‌‌
  3. ‌RAG(检索增强生成)支持‌:LangChain4j 提供文本加载、解析、分割等完整工具链,Spring AI 的 RAG 功能相对基础

注意:

可以与 Spring Boot 等整合(langchain4j-spring 模块),但核心是一个纯 Java 库,需要手工 wiring 多数部分。

  • 使用 Spring AI 的典型用途:
    • 在已有 Spring Boot 微服务中嵌入 Chat 或 文本生成功能,例如客服机器人、内部文档助手。
    • 快速开发 embedding 搜索 + AI 文本摘要 + 图像生成业务。
    • 利用 Spring 的现有安全配置 /配置中心 /监控系统,保持统一架构。
  • 使用 LangChain4j 的典型用途:
    • 构建需要 Agent 调度、工具调用、Memory 管理的智能体。例如“用户输入 → 检索数据库 → 调用外部 API → 合成响应 → 写入日志”这种多步骤流程。
    • 构建自定义 RAG 服务:可插入自定义向量数据库、检索策略、重排序逻辑等。
    • 希望在 Java 应用中迁移或复制 LangChain Python 的工作流逻辑。

 参考:

https://www.cnblogs.com/duanxz/p/19088542

https://cloud.tencent.com/developer/article/2531640

Read more

Trae 高峰排队太难受?让 AI 编码从此告别等待!

手把手教你配置无问芯穹,享受丝滑 AI 编程体验 最近在使用 Trae 进行 AI 辅助编程时,遇到了一个让人抓狂的问题——高峰期模型排队。相信很多 Trae 用户都有同感,当灵感迸发想要快速实现一个功能时,却要面对“前方排队 X 人的提示,这感觉就像写代码写到一半突然断网一样难受。 今天,我就来教大家如何通过接入无问芯穹这个强大的 AI 聚合厂商,彻底解决这个痛点。文章最后还有专属福利,千万别错过! 痛点:Trae 高峰期的“模型春运” Trae 作为一款优秀的 AI 编程助手,用户量增长非常快。每天下午和晚上,尤其是工作日的 14:00-17:00可以说是模型调用的“高峰期”。 当你遇到以下场景时: * 调试一段怎么也找不到 bug 的代码 * 想要重构一个冗长的模块 却只能对着屏幕干等,那种感觉真的很影响开发效率。排队等待不仅打断了思路,

【前沿解析】2026年3月29日:AI推理效率双重突破——谷歌TurboQuant内存压缩与RWKV-6开源重构大模型部署范式

当百万级上下文成为AI应用标配,当边缘设备渴求智能部署,内存墙与算力瓶颈正成为制约AI规模化落地的最后枷锁。2026年3月29日,两大技术突破同步到来:谷歌研究院发布TurboQuant算法,将KV缓存内存占用压缩6倍、速度提升8倍;RWKV开源基金会宣布RWKV-6 1.6B模型正式开源,线性复杂度架构打破Transformer二次方魔咒。这不仅是技术的双重突破,更是AI从实验室走向产业、从云端下沉到终端的范式革命。 引言:效率革命的双引擎——内存压缩与架构创新 2026年3月,AI行业迎来了标志性的效率拐点。在算力增长曲线趋缓、摩尔定律失效的背景下,通过算法优化提升现有硬件效能成为唯一可行路径。谷歌TurboQuant与RWKV-6开源,恰如效率革命的双引擎,从两个维度同时突破传统瓶颈: * TurboQuant:针对大模型推理最核心的内存瓶颈——KV缓存,通过PolarQuant坐标变换与QJL误差校正,实现3-bit量化下的零精度损失,实测内存占用降低83%、注意力计算速度提升8倍 * RWKV-6:基于线性复杂度的时间序列混合架构,在保持强大序列建模能

开发效率翻倍!JetBrains IDE 必备 AI 插件 Continue 安装配置指南

开发效率翻倍!JetBrains IDE 必备 AI 插件 Continue 安装配置指南

作为程序员,谁不想在写代码时少敲几行键盘、多省点时间?今天给大家推荐一款 JetBrains 系列 IDE(PyCharm、IntelliJ IDEA 等)的宝藏插件 ——Continue,它能靠 AI 帮你补代码、改逻辑、写文档,看完这篇就能上手用! 一、先搞懂:Continue 到底能帮你做什么? Continue 是专门为 JetBrains IDE 设计的 AI 辅助插件,核心是通过调用本地或云端的 AI 模型,帮开发者解决写代码时的各种 “麻烦事”,具体能实现这 5 个实用功能: * 代码快补 & 续写:比如你写了函数名,按下快捷键,AI 会根据文件上下文自动补全函数体,重复代码不用再手敲; * IDE 内直接问 AI:遇到代码报错、

TRAE 接入方舟 Coding Plan教程(AI IDE 字节系)

TRAE 接入方舟 Coding Plan教程(AI IDE 字节系)

1 下载&安装TRAE 1.1 什么是 TRAE ? 字节跳动发布的AI原生编程工具,可帮助开发者从0到1开发完整项目。 TRAE(/treɪ/)深度融合 AI 能力,是一名能够理解需求、调用工具并独立完成各类开发任务的“AI 开发工程师”,帮助你高效推进每一个项目。 支持以下功能: 实时续写代码调试运行智能排查Bug版本控制自动构建项目一键预览效果解答技术难题 1.2 下载 国内版下载地址(推荐):https://www.trae.cn/ide/download 国际版下载地址(适合已订阅国外大模型的用户): https://www.trae.ai/download 目前支持的系统(注意:Linux版本需要预约候补): * Windows * macOS * Linux 1.3 安装  点击打开已下载的安装包,