IDEA 创建 Spring Boot Web 项目完整教程

一、新建 Spring Boot 项目

1. 打开新建项目窗口

  • 打开 IntelliJ IDEA → 点击 新建项目(或从欢迎页选择 New Project
  • 在左侧生成器中选择 Spring Boot

  •          截图如下
选项填写内容说明
服务器 URLstart.spring.ioSpring 官方初始化地址
名称demo项目名
位置D:\idea项目存放路径(建议不要含中文 / 空格)
语言Java开发语言
类型Maven项目构建工具
org.example项目组织标识
工件demo项目模块名
软件包名称com.example.demo根包名
JDK21 Oracle OpenJDK 21.0.8你的 JDK 版本
Java17源码兼容版本(Spring Boot 4.0.3 推荐 Java 17+)
打包Jar可执行 Jar 包(Spring Boot 推荐)
配置Properties配置文件格式

       点击 下一步 (N) 进入依赖选择页面。

二、选择 Spring Web 依赖

1. 选择 Spring Boot 版本

  • Spring Boot 版本:4.0.3(保持默认即可)

2. 添加 Web 依赖

  • 在左侧依赖列表中展开 Web 分类
  • 勾选 Spring Web(右侧会显示依赖说明:用于构建 Web/RESTful 应用,内置 Tomcat 容器)
  • 确认 “已添加的依赖项” 中显示 Spring Web
  • 然后创建,idea会自动生成项目结构

       截图如下

三、等待项目初始化完成

  1. IDEA 会自动打开项目并执行以下操作:
    • 下载 Maven 依赖(底部进度条可见)
    • 生成标准 Spring Boot 项目结构
    • 配置 .gitignorepom.xml 等文件
  2. 等待右下角提示 “项目同步完成” 后,即可开始开发。

Read more

手把手教你在AutoDL上用LLaMA-Factory微调GPT-OSS-20B模型(LoRA版)

手把手教你在AutoDL上用LLaMA-Factory微调GPT-OSS-20B模型(LoRA版)

本教程详细讲解如何在AutoDL云GPU上使用LLaMA-Factory框架微调GPT-OSS-20B大语言模型,包含完整的环境配置、训练流程、权重合并以及vLLM推理部署全流程。文章最后还分享了笔者踩过的坑和解决方案,建议收藏备用! 前言 最近在做一个智能采购相关的项目,需要对大语言模型进行微调,让它能够更好地理解采购场景的业务需求。在对比了多种方案后,最终选择了LLaMA-Factory + LoRA的组合,原因主要有三点: 1. 开箱即用:LLaMA-Factory提供了非常完善的训练框架,支持多种微调方式 2. 显存友好:LoRA相比全参数微调,显存占用大幅降低 3. 效果不错:在采购对话场景下,LoRA微调已经能够满足业务需求 本文将完整记录从环境配置到模型部署的全过程,希望能够帮助到有同样需求的小伙伴。 一、方案概览 在开始之前,先来看一下整体的技術方案: 组件选择说明微调框架LLaMA-Factory 0.9.4开源的大模型训练框架基础模型GPT-OSS-20B200亿参数的MoE大模型微调方式LoRA低秩适配,显存友好推理引擎vLLM高性能推

Llama Factory隐藏功能:一键生成可部署的API服务

Llama Factory隐藏功能:一键生成可部署的API服务 作为一名移动应用开发者,当你费尽心思微调好一个文本分类模型后,最头疼的问题可能就是:如何将它快速转化为可调用的API接口?本文将手把手教你利用Llama Factory的隐藏功能,无需复杂编码即可生成可部署的API服务,实现从训练到上线的"最短路径"。 这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含Llama Factory的预置镜像,可快速部署验证。下面我们从零开始,完整走通这个流程。 为什么需要API服务化? * 应用集成需求:移动端APP通常通过HTTP请求与后端交互,直接调用模型文件几乎不可行 * 资源隔离:将模型部署为独立服务,避免移动设备性能瓶颈 * 版本管理:API接口可保持稳定,后台模型可随时更新替换 提示:Llama Factory内置的API生成功能基于FastAPI框架,默认支持Swagger文档自动生成。 准备工作:检查你的微调成果 在开始API部署前,请确认你已完成以下步骤: 1. 成功微调模型并保存检查点(通常为adapter_model.bin

别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍

别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍

别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍 前言 很多开发者抱怨 Copilot 生成的代码是“垃圾”或“幻觉”。真相是:Copilot 是一辆 F1 赛车,而大多数人只把它当成了自动挡的老年代步车。 本指南将揭示 Copilot 不为人知的底层机制,教你通过“上下文工程” (Context Engineering),让 AI 写出精准、规范的生产级代码。 核心心智模型:Copilot 是怎么“思考”的? 在学习技巧前,你需要理解 Copilot 的大脑构造。它不是在瞎猜,它是在根据你喂给它的“上下文(Context)”计算概率。 Copilot 的上下文由三层组成:

智能家居AI侦测方案:树莓派+云端协同,低成本实现

智能家居AI侦测方案:树莓派+云端协同,低成本实现 引言:为什么需要边缘+云端协同? 智能家居正在从简单的远程控制进化到主动感知环境、预测需求的AI时代。但一个现实难题摆在面前:摄像头、传感器产生的海量数据全部上传云端处理,不仅网络带宽压力大,每月云服务账单也让人肉疼。而如果只依赖树莓派等边缘设备,又难以运行复杂的AI模型。 这就是为什么边缘计算+云端协同成为最优解:让树莓派处理基础检测(如有人移动、异常声音),可疑事件再触发云端深度分析。实测下来,这种架构能降低80%以上的云端计算成本,同时保持高准确率。 1. 硬件准备:百元级树莓派方案 1.1 基础设备清单 * 树莓派4B/5(4GB内存起步):约400-600元 * USB摄像头(推荐罗技C920):200-300元 * 麦克风模块(可选):50-100元 * 移动电源/充电器:确保24小时供电 1.2 系统环境配置 用官方Raspberry Pi