工具篇-如何在Github Copilot中使用MCP服务?

工具篇-如何在Github Copilot中使用MCP服务?

Model Context Protocol (MCP) 是由 Anthropic 公司于 2024 年 11 月推出的一种开放协议标准,目的在于标准化 LLM 与外部数据源、工具及服务之间的交互方式。MCP 被广泛类比为“AI 领域的 USB-C 接口”。

一、vscode的安装

下载vscodeVisual Studio Code - Code Editing. Redefined安装完成打开

选择copilot,这个是AI助手,帮助你编程 
然后注册登录,可以使用GitHub的账号登录,很多工具都可以通过GitHub帐号登录,所以注册一个GitHub帐号是很有必要的。

二、使用MCP

2.1 准备好MCP

先按这篇文章准备好高德地图的MCP:工具篇-Cherry Studio之MCP使用-ZEEKLOG博客

2.2 在Github Copilot中配置 MCP服务 

第一步,Preferences => Settings => 搜索 mcp

把高德的MCP添加进去,其他的MCP类似:

当我在聊天框里启动服务的时候发现mcp-server-time无法启动,于是我就把它删除了,变成这个样子:

三、使用MCP

我们给它一个任务:帮我用MCP,规划一个深圳一日游的路线
开始工作了,可以看到它去调用了我们刚刚添加的MCP,Continue,继续

 

可以看到调用了很多MCP的工具

 

最终给出的结果如下,你们看效果如何:

根据获取的信息,我为您规划了一个合理的深圳一日游路线: 上午 9:00-12:00:深圳世界之窗 地址:南山区深南大道9037号 世界之窗是一个缩小版的世界知名建筑和景点的主题公园,可以在这里看到埃菲尔铁塔、泰姬陵等世界著名景观的微缩版本。 中午 12:00-16:00:深圳欢乐谷 位置:距离世界之窗约1.4公里 交通:可以乘坐M486路公交车(约10分钟) 深圳欢乐谷是一个现代化的主题公园,有刺激的过山车等游乐设施。 傍晚 16:00-晚上:深圳湾公园 位置:从欢乐谷到深圳湾公园约4.7公里 交通建议: 乘坐地铁2号线到科苑站 换乘地铁13号线到后海站 步行约15分钟到达深圳湾公园 深圳湾公园是欣赏日落的绝佳地点,可以看到深圳湾大桥和香港的景色。 交通建议: 全程建议使用深圳通交通卡,可以乘坐地铁和公交 各景点之间有便利的公交和地铁连接 如果觉得疲惫,也可以选择打车 时间安排提示: 建议早上9点开始行程 在世界之窗游玩约3小时 欢乐谷游玩约4小时 深圳湾公园可以选择在傍晚时分到达,欣赏日落景色 其他建议: 建议携带充足的水和零食 准备防晒用品和舒适的步行鞋 记得带上相机记录精彩时刻 建议提前查看天气预报,选择天气较好的日子出行 需要了解具体某个景点的更多信息或详细路线指引,我可以为您进一步查询。

Read more

如何用MCP AI Copilot提升运维效率300%?真实数据告诉你答案

第一章:MCP AI Copilot 运维提效全景解析 在现代企业IT基础设施日益复杂的背景下,MCP AI Copilot 作为智能化运维助手,正在重塑传统运维模式。通过融合机器学习、自然语言处理与自动化执行能力,它能够实时分析系统日志、预测潜在故障并主动触发修复流程,显著降低平均修复时间(MTTR)。 智能告警与根因分析 MCP AI Copilot 可对接 Prometheus、Zabbix 等主流监控系统,利用语义聚类技术对海量告警进行去噪和聚合。当检测到异常指标时,自动调用链路追踪数据进行根因推理。 例如,以下 Go 代码片段展示了如何通过 API 触发告警分析任务: // 初始化AI分析客户端 client := NewAIClient("https://api.mcp-copilot/v1") // 提交告警事件进行智能分析 resp, err := client.AnalyzeAlert(Alert{ Timestamp:

2026年AI编程工具全景图:GitHub Copilot vs Cursor vs Codeium,我如何选择?

2026年AI编程工具全景图:GitHub Copilot vs Cursor vs Codeium,我如何选择?

文章目录 * 前言 * 一、我的使用场景与测试环境 * 二、GitHub Copilot:全球生态标杆 * 核心优势实测 * 性能数据记录 * 鸿蒙开发适配度 * 三、Cursor:专家级重构利器 * 重构能力深度测试 * 多文件分析能力 * 四、Codeium:极致免费的性价比之选 * 免费策略的深度体验 * 响应速度实测 * 中文支持的优势 * 五、鸿蒙开发场景专项测试 * 测试1:ArkTS组件生成 * 测试2:分布式能力集成 * 测试3:性能优化建议 * 六、2026年价格策略对比 * 七、我的实际使用组合 * 工作日使用方案 * 具体工作流 * 效率提升数据 * 八、选择建议:根据你的场景决策 * 场景1:学生/初学者/零预算 * 场景2:前端/鸿蒙开发者 * 场景3:全栈/团队协作

升级Z-Image-Turbo后,我的AI绘画效率翻倍了

升级Z-Image-Turbo后,我的AI绘画效率翻倍了 以前做AI绘画,我总在“等”字上耗掉大半时间:等模型加载、等提示词调试、等8步变50步、等一张图出完再改下一句描述——直到我把本地部署的Z-Image换成了Z-Image-Turbo。不是参数更多、不是显卡升级,只是换了个镜像,生成一张4K高清图的时间从12秒压到5.3秒,批量跑10张海报的耗时直接砍掉62%,连带工作流节奏都变了:以前是“画一张,喝一口咖啡”,现在是“画一张,顺手改三版”。 这不是玄学提速,而是通义实验室把“快”这件事,从算法层、工程层到交付层全链路重写了。它不靠堆显存,不靠换H100,甚至不需要你动一行代码——只要启动一个预置镜像,就能把消费级GPU用出服务器级响应感。 下面我就用真实工作流告诉你:这个叫Z-Image-Turbo的开源模型,到底快在哪、稳在哪、好用在哪。 1. 为什么说“8步生成”不是营销话术 很多人看到“8步出图”第一反应是:画质肯定崩。我一开始也这么想,直到用同一段提示词对比测试:

开源模型应用落地-qwen2.5-7b-instruct-LoRA微调-LLaMA-Factory-单机单卡-V100(十八)

开源模型应用落地-qwen2.5-7b-instruct-LoRA微调-LLaMA-Factory-单机单卡-V100(十八)

一、前言     本篇文章将使用LLaMA-Factory去高效微调(命令和界面方式)QWen2.5系列模型,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。     QWen2系列模型微调: 开源模型应用落地-qwen2-7b-instruct-LoRA微调-LLaMA-Factory-单机单卡-V100(八)https://charles.blog.ZEEKLOG.net/article/details/141391066 二、术语介绍 2.1. LoRA微调   &nb