Copilot “Plan Mode“ + 多模型协同实战:让复杂项目开发丝滑起飞

在 AI 辅助编程普及的今天,我们似乎习惯了“Tab 键一路狂飙”的快感。但在面对大型存量项目(Legacy Code)时,这种快感往往会变成惊吓——AI 生成的代码看似完美,实则破坏了原有的架构逻辑,或者引入了难以排查的幻觉(Hallucinations)。

作为一名后端开发者,我在工具链的探索上走了不少弯路。从 Spec Kit 到 Gemini Conductor,再到如今的 GitHub Copilot Plan Mode,我终于找到了一套适合 复杂业务架构 的“最佳实践”。

今天想和大家分享这套 “Plan + Implement” 模式 配合 “多模型路由” 的打法,它让我的开发体验发生了质变。

一、 引言:寻找大型复杂项目的“银弹”

在探索 AI 编程工具的过程中,我经历了三个阶段的心态变化:

1. Spec Kit 的严谨与繁琐

起初,为了保证代码质量,我尝试过 Spec Kit。它确实严谨,能强制 AI 遵循规范。但它的配置过程实在是太“重”了,写代码前要先写一堆 Spec,感觉像是在给 AI 打工,很难在日常快速迭代中坚持下来。

2. Gemini Conductor 的惊艳与局限

后来,Google 推出的 Gemini Conductor 让我眼前一亮。

  • 优点:对于 从零开始的新项目或者 独立的小脚本,它简直是神器。你给它一个指令,它能全自动把文件建好、代码写好、测试跑通。
  • 痛点:但当我把它用到 现有的、庞大的 SaaS 系统中时,问题来了。Conductor 缺乏对旧系统的整体认知。要让它在百万行代码里精准修改一个逻辑,我需要前期人工积累大量的 Skills(技能)和 Tools(工具)来辅助它。对于老项目来说,这个“冷启动”成本太高了。

3. 发现新大陆:Copilot Plan Mode

就在我苦恼于“新项目太爽,老项目太累”的时候,GitHub Copilot 推出的 Plan + Implementation 模式 完美填补了这个空白。

它不需要预先配置复杂的 Skills,却能通过“交互式规划”快速理解复杂的业务上下文。这正是我在维护复杂老项目时最需要的——手术刀般的精准度,而不是推土机般的破坏力。

二、 核心模式解析:“Plan + Implement” 为何如此好用?

1. 痛点:Ask + Agent 模式的“最后一公里”迷失

以前我们用 Copilot 的 Ask + Agent 模式时,流程通常是:先在 Chat 框里和 AI 聊(Ask),聊得差不多了,再让 Agent 去执行。

但这中间存在一个致命的断层:没有一个“最终确认”的环节。 虽然我在 Ask 阶段聊了很多,但到了 Agent 实现阶段,AI 可能依然存在理解盲区。因为它没有显式地总结出一份“行动指南”让我确认,一旦它在某个不懂的细节上开始“自由发挥”,就会产生幻觉。这种不确定性,导致我在 Code Review 时经常还要回头去修它生成的 Bug。

2. 解法:Plan Mode 的“契约精神”

Plan Mode 的核心价值在于,它在 Thinking(思考)和 Coding(编码)之间,插入了一个“达成共识”的步骤。

在 Agent 写下一行代码之前,它必须先交出一份 Plan(计划书)

  • 如果 Plan 里有我想法不一样的地方(比如异常处理策略),我直接在 Plan 阶段修正。
  • 只有当我和 AI 对 Plan 达成一致后,它才会进入 Implement 阶段。

这相当于在施工前先签好了图纸,极大地降低了返工率。

alt

三、 高阶玩法:“模型路由” (Model Routing) 策略

这是我在实战中摸索出的“独家秘籍”。 Gemini Conductor 虽然强大,但目前只能绑定 Gemini 系列模型。而 GitHub Copilot 的最大优势在于它的开放性——你可以根据不同的任务阶段,自由路由到最合适的模型。

alt

我总结了一套 “架构师 + 工匠” 的组合拳:

🧠 Plan 阶段:聘请“严谨架构师” —— GPT-5.3-Codex

alt
  • 角色定位:逻辑推理、API 契约制定、异常路径分析。
  • 为什么选它
  • 带有Codex 后缀的模型通常指令依从性(Instruction Following)极强。
  • 它逻辑严密,能像老法师一样考虑到数据一致性、NATS 消息丢失等架构风险。
  • 在 DDD 架构中,它能守住“领域边界”,不让业务逻辑泄露。

🛠️ Implement 阶段:聘请“优雅工匠” —— Claude Sonnet/Opus 4.6

alt
  • 角色定位:代码落地、细节优化、单元测试。
  • 为什么选它
  • 代码品味(Code Taste)极佳:它生成的代码不仅能跑,而且符合现代 Java 风格(Stream 流、Optional 处理等)。
  • 有“代码洁癖”:它会主动检查并移除多余的 Import,生成的代码往往能直接通过 Spotless 检查。
  • 懂“人话”:变量命名清晰,注释写得非常人性化,便于后续维护。

四、 实战复盘:企业微信 SaaS 动态 Server 改造

为了证明这套模式的威力,分享一个最近的真实案例。 背景:我们的 SaaS 客服系统基于 Spring Boot + NATS + DDD 架构。 需求:需要将一个动态的server 参数,从 API 回调入口,穿透 DTO、Listener、Event、Service,一直透传到下游的 API Client。

Step 1: 交互式规划 (GPT-5.3-Codex)

我将WeComPayload 和WeComApiClient 的代码发给 Copilot,输入需求。 GPT-5.3-Codex 并没有急着给代码,而是先生成了 Decisions(关键决策) 列表供我确认:

alt
Decisions:已定:字段路径payload.attributes.server已定:server 值为host:port,客户端负责补协议并组装 URL关键点:server 缺失时“跳过 + 记录错误”,不回退wecom.api.base-url已定:sendTextMessage 与读取接口保持同一动态 server 规则

这一步非常关键!如果它不问,直接回退到旧的base-url,系统逻辑就乱了。

Step 2: 生成蓝图

确认决策后,AI 生成了包含 5 个大步骤的详细计划:

  1. 在消息 DTO 增加attributes.server 建模。
  2. 在入口监听器补齐 server 校验与透传起点。
  3. 扩展异步事件模型(GroupSyncEvent 等)承载 server。
  4. 让消费服务全链路使用动态 server。
  5. 重构 API 客户端为“按次 URL”。
alt

Step 3: 落地执行 (Claude Opus 4.6)

确认 Plan 无误后,我切换模型为 Claude 4.6 点击 "Start Implementation"。 Claude 开始分批执行修改。最让我惊喜的一个细节是: 在修改WeComPayload 时,它引入了一个Map 类,但随即在编译检查时发现该引用实际上未被使用。Claude 主动 发出提示:

“检测到java.util.Map 引用多余,虽然编译器忽略了,但我将其移除以保持代码整洁。”
alt

Step 4: 结果

最终,整个重构涉及 11 个文件。 编译通过,Spotless 格式化通过,单元测试全绿。 全程没有人工修改一行代码,一次性通过。

alt

五、 总结

AI 编程工具正在经历从“玩具”到“工业级武器”的转变。

  • 如果你在做 新项目或者存量的小项目Gemini Conductor 依然是效率之王。
  • 但如果你像我一样,正在维护 大型、复杂的存量系统,那么 Copilot Plan Mode + 模型路由 绝对是目前的版本答案。

这套模式不仅让我写代码更快,更重要的是它带给了我久违的“掌控感”。我不再担心 AI 会悄悄搞乱我的代码,因为每一个步骤、每一个决策,都在 Plan 阶段经过了我的确认。

拒绝 AI 幻觉,从学会“Plan”开始。 强烈推荐大家在复杂的后端开发中尝试这套打法,体验真正的丝滑开发。

本文由 mdnice 多平台发布

Read more

MIT室内场景识别数据集-15,571张图片 室内场景识别 机器人导航 智能建筑 深度学习 机器学习 语义理解 安防监控 虚拟现实`

MIT室内场景识别数据集-15,571张图片 室内场景识别 机器人导航 智能建筑 深度学习 机器学习 语义理解 安防监控 虚拟现实`

🏢 MIT室内场景识别数据集-15,571张图片-文章末添加wx领取数据集 * 📦 已发布目标检测数据集合集(持续更新) * 🏢 MIT室内场景识别数据集介绍 * 📌 数据集概览 * 包含类别 * 🎯 应用场景 * 🖼 数据样本展示 * 使用建议 * 🌟 数据集特色 * 📈 商业价值 * 🔗 技术标签 * YOLOv8 训练实战 * 📦 1. 环境配置 * 安装 YOLOv8 官方库 ultralytics * 📁 2. 数据准备 * 2.1 数据标注格式(YOLO) * 2.2 文件结构示例 * 2.3 创建 data.yaml 配置文件 * 🚀 3. 模型训练 * 关键参数补充说明: * 📈 4. 模型验证与测试 * 4.1 验证模型性能 * 关键参数详解 * 常用可选参数 * 典型输出指标 * 4.2 推理测试图像

【花雕学编程】Arduino BLDC 之机器人IMU角度读取 + PID控制 + 互补滤波

【花雕学编程】Arduino BLDC 之机器人IMU角度读取 + PID控制 + 互补滤波

基于 Arduino 平台实现 BLDC 机器人 IMU 角度读取 + 互补滤波 + PID 控制,构成了一个典型的姿态闭环控制系统。该架构是自平衡机器人(如两轮平衡车、倒立摆)或稳定云台的核心技术栈。它通过 互补滤波 融合 IMU 原始数据以获得精准姿态角,再利用 PID 控制器 计算出维持平衡所需的电机驱动力矩,驱动 BLDC 电机 执行动作。 1、主要特点 传感器融合:互补滤波(Complementary Filter) 这是系统的“感知中枢”,解决了单一传感器无法同时满足动态与静态精度需求的矛盾。 频域分割策略:互补滤波本质上是一个频域滤波器。它利用低通滤波(LPF)处理加速度计数据,提取低频的重力方向分量(长期稳定,用于修正漂移);同时利用高通滤波(HPF)处理陀螺仪数据,提取高频的角速度变化分量(动态响应快,

实现Python将csv数据导入到Neo4j

实现Python将csv数据导入到Neo4j

目录 一、获取数据集 1.1 获取数据集 1.2 以“记事本”方式打开文件 1.3  另存为“UTF-8”格式文件 1.4 选择“是” 二、 打开Neo4j并运行 2.1 创建新的Neo4j数据库 2.2 分别设置数据库名和密码 编辑 2.3 启动Neo4j数据库 2.4 打开Neo4j数据库  2.5 运行查看该数据库是否为空 三、打开Python创建项目  3.1 创建一个包,存项目 3.2 创建一个项目 3.3 检查自己的依赖是否完全

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

提到提示词注入(Prompt Injection),大家的第一反应往往是精心构造的文本越狱指令。 而在图生图任务中,输入图像在本质上扮演了视觉提示词的角色,与文本指令共同指导生成模型。 基于这一视角,本文展示针对视觉提示词的注入攻击:通过PGD对抗攻击算法对输入图像进行像素级微调,使其生成的违规图像能够绕过开源大模型的NSFW安全检测机制。 临近毕业,感觉市场对提示词注入比较感兴趣,因本人读博期间一直研究对抗攻击算法,所以决定尝试用对抗攻击的思路完成提示词注入攻击,误导开源模型生成违规图像。 完整代码链接:https://github.com/YujiangLi0v0/Injection_Attack_Inpainting.git 目录 * 一、 NSFW防线:开源模型的安全过滤机制 * 二、 攻击场景定义 (Threat Model) * 三、 环境搭建 * 四、 核心攻击流程详解 * 4.1. 固定随机因子 * 4.2 数据预处理 * 4.3. 攻击部分 * 4.3.1 重写扩散模型推理过程