JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

1. 背景说明:Agent Mode 与 MCP 的意义

Agent Mode 是 GitHub Copilot 的新形态,它能理解自然语言指令,自动拆分任务,遍历项目文件,执行命令并修改代码,像一个“自主项目助手”一样工作。

Model Context Protocol (MCP) 是一套用于 Copilot 调用外部工具的协议标准,让 Agent Mode 能访问终端、读写文件、检查代码等能力。

JetBrains 自 2025 年 5 月起已提供 Agent Mode + MCP 公测支持。最新版的插件已经是正式的非Preview版本。


2. JetBrains 中如何启用 Agent Mode

(1) 升级插件

确保已安装最新版 GitHub Copilot 插件(例如 1.5.x 或更高)。

(2) 配置 MCP Servers

进入插件设置:点击 Copilot 图标 → Edit Settings → MCP Servers。添加如下 mcp.json

{ "servers": { "GitHub": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-github"], "env": { "GITHUB_PERSONAL_ACCESS_TOKEN": "your-token-here" } } } } 

(3) 切换 Agent 模式

新的版本插件已经不是Preview了,Agent模式也挪到了 Copilot Chat 面板底部的下拉菜单。选择 "Agent"即可使用。

                                        


3. Ask / Edit / Agent 模式区别概览

模式适用场景操作范围是否改动代码
Ask Mode查问题、学习概念单个文件或语句不修改,仅回答
Edit Mode进行小范围修改(函数、变量等)指定工作集中的文件提议更改,由用户审查后接受
Agent Mode多步任务、跨文件、可跑命令全项目范围自动更改 + 终端操作,支持迭代

“Ask” 更多用于概念和语法参考,“Edit” 对细节型改动友好,“Agent” 非常适合涉及构建、测试、修复等复杂任务的自动化。


4. 使用建议与适配场景

  • Ask Mode:适合快速查询API、语法、概念等,不涉及代码修改。
  • Edit Mode:适用于重构、单元测试、变量/函数更新等一两处改动。
  • Agent Mode:适合复杂任务,如重构模块、创建新功能、运行测试、修复编译错误等。可结合 MCP 调用终端命令完成多步逻辑。

5. 常见问题解答

  • 问:Agent Mode 是否必须首先配置 MCP?
    答:是的,多步任务尤其需要调用终端工具或访问文件,需配置 MCP 服务(The GitHub Blog)。
  • 问:JetBrains 支持 Agent Mode 吗?部分知乎用户说仅 VS Code 有……
    答:现在 JetBrains 已正式支持 Agent Mode(无“Preview”字样)(Reddit)。
  • 问:Agent 模式会自动提交改动吗?
    答:不会,所有更改仍需用户审查确认后才生效,同时支持“Undo Last Edit”回退操作(Visual Studio Code)。

6. 总结

  • Agent Mode 将 Copilot 从“智能补全”升级为“能干工程师”,支持跨文件、终端、测试执行等多步任务。
  • MCP 是其能力扩展背后的技术保障。
  • JetBrains 已全面支持 Agent Mode + MCP,无需再等待“Preview”标签。
  • 未来 Copilot 在自动化开发工作流上的潜力巨大,值得深入探索。

Read more

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人 目录 DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人 前  言 1 环境准备 1.1 华为云开发环境 1.2 ModelArts 代金券与模型服务 1.3 启动 OpenClaw 网关 2 飞书开放平台配置 2.1 创建企业自建应用 2.2 添加机器人能力 2.3 配置应用权限 2.4 发布应用版本 3 OpenClaw 与飞书集成 3.1 配置 OpenClaw

【论文阅读】Gaussian Grouping: Segment and Edit Anything in 3D Scenes

【论文阅读】Gaussian Grouping: Segment and Edit Anything in 3D Scenes

摘要 高斯投影(Gaussian Splatting)实现了高质量、实时的三维场景新视点合成。不过,它仅专注于外观和几何建模,缺乏对细粒度的物体级场景理解。为了解决这一问题,我们提出了 Gaussian Grouping,将高斯点扩展为联合重建和分割开放世界三维场景中的任意内容。我们为每个高斯添加了一个紧凑的身份编码(Identity Encoding),使得这些高斯点能够根据其在三维场景中的物体实例或“物体/背景”的成员关系进行分组。并不依赖昂贵的三维标签,我们在可微渲染过程中通过利用 Segment Anything Model (SAM) 的二维掩码预测,以及引入的三维空间一致性正则化,对身份编码进行监督。与隐式的 NeRF 表示相比,我们表明离散且分组的三维高斯点能够在三维中以高视觉质量、细粒度和高效性来重建、分割和编辑任意内容。 引言 本文旨在构建一个 expressive 的三维场景表示,不仅对外观和几何进行建模,还捕捉场景中每个实例和物体的身份信息。我们的方法以最近的三维高斯投影(Gaussian Splatting)为基础,将其从纯粹的三维重建扩展到细粒度的场景

基于Q-learning算法的机器人迷宫路径规划研究附Matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。 🍎 往期回顾关注个人主页:Matlab科研工作室 🍊个人信条:格物致知,完整Matlab代码及仿真咨询内容私信。 🔥 内容介绍 机器人路径规划是智能机器人领域的核心研究课题之一,其目标是让机器人在复杂环境中自主寻找一条从起点到终点、避开障碍物且满足优化准则(如路径最短、能耗最低)的可行路径。Q-learning算法作为无模型强化学习的经典代表,具有无需预先构建环境模型、通过试错学习自主优化策略的优势,非常适用于未知或动态迷宫环境中的路径规划任务。本文以机器人迷宫路径规划为研究对象,深入探讨Q-learning算法的基本原理及其在路径规划中的应用流程,针对传统Q-learning算法存在的收敛速度慢、易陷入局部最优、路径冗余等问题,提出相应的改进策略,通过Matlab仿真实验验证改进算法的有效性。研究结果表明,改进后的Q-learning算法能够显著提升机器人在迷宫环境中的路径规划效率,缩短收敛时间,生成更优的路径,为智能机器人在复杂未知环境中的自主导航提供

飞书机器人实战:5分钟搞定图片消息发送(含常见报错解决方案)

飞书机器人实战:5分钟搞定图片消息发送(含常见报错解决方案) 你是否遇到过这样的场景:服务器监控系统捕捉到一个异常峰值,你希望它能自动将一张清晰的图表截图,直接推送到团队的飞书群里,而不是一封冰冷的邮件;或者,你的自动化日报系统生成了精美的数据可视化图片,你希望它能无缝地出现在每日的晨会通知中。对于许多开发者和运维工程师来说,将图片消息集成到自动化流程中,是一个能极大提升信息传达效率和体验的“刚需”。 飞书机器人提供了强大的消息推送能力,但初次接触其图片消息发送功能时,你可能会发现它比预想的要“曲折”一些——它不像发送文本那样直接丢一个图片链接就行,而是需要经过一个“上传-获取密钥-发送”的流程。这个过程里,权限配置、tenant_access_token获取、图片上传格式、image_key的使用,每一步都可能藏着一个小坑。别担心,这篇文章就是为你准备的“避坑指南”。我们将抛开官方文档那略显冰冷的步骤罗列,从一个实战者的角度,带你用大约5分钟的时间,彻底打通从零到一发送飞书图片消息的全链路,并重点剖析那些你可能马上就会遇到的报错及其根因解决方案。我们的目标是:让你看完就能用,用了