工具篇-如何在Github Copilot中使用MCP服务?

工具篇-如何在Github Copilot中使用MCP服务?

Model Context Protocol (MCP) 是由 Anthropic 公司于 2024 年 11 月推出的一种开放协议标准,目的在于标准化 LLM 与外部数据源、工具及服务之间的交互方式。MCP 被广泛类比为“AI 领域的 USB-C 接口”。

一、vscode的安装

下载vscodeVisual Studio Code - Code Editing. Redefined安装完成打开

选择copilot,这个是AI助手,帮助你编程 
然后注册登录,可以使用GitHub的账号登录,很多工具都可以通过GitHub帐号登录,所以注册一个GitHub帐号是很有必要的。

二、使用MCP

2.1 准备好MCP

先按这篇文章准备好高德地图的MCP:工具篇-Cherry Studio之MCP使用-ZEEKLOG博客

2.2 在Github Copilot中配置 MCP服务 

第一步,Preferences => Settings => 搜索 mcp

把高德的MCP添加进去,其他的MCP类似:

当我在聊天框里启动服务的时候发现mcp-server-time无法启动,于是我就把它删除了,变成这个样子:

三、使用MCP

我们给它一个任务:帮我用MCP,规划一个深圳一日游的路线
开始工作了,可以看到它去调用了我们刚刚添加的MCP,Continue,继续

 

可以看到调用了很多MCP的工具

 

最终给出的结果如下,你们看效果如何:

根据获取的信息,我为您规划了一个合理的深圳一日游路线: 上午 9:00-12:00:深圳世界之窗 地址:南山区深南大道9037号 世界之窗是一个缩小版的世界知名建筑和景点的主题公园,可以在这里看到埃菲尔铁塔、泰姬陵等世界著名景观的微缩版本。 中午 12:00-16:00:深圳欢乐谷 位置:距离世界之窗约1.4公里 交通:可以乘坐M486路公交车(约10分钟) 深圳欢乐谷是一个现代化的主题公园,有刺激的过山车等游乐设施。 傍晚 16:00-晚上:深圳湾公园 位置:从欢乐谷到深圳湾公园约4.7公里 交通建议: 乘坐地铁2号线到科苑站 换乘地铁13号线到后海站 步行约15分钟到达深圳湾公园 深圳湾公园是欣赏日落的绝佳地点,可以看到深圳湾大桥和香港的景色。 交通建议: 全程建议使用深圳通交通卡,可以乘坐地铁和公交 各景点之间有便利的公交和地铁连接 如果觉得疲惫,也可以选择打车 时间安排提示: 建议早上9点开始行程 在世界之窗游玩约3小时 欢乐谷游玩约4小时 深圳湾公园可以选择在傍晚时分到达,欣赏日落景色 其他建议: 建议携带充足的水和零食 准备防晒用品和舒适的步行鞋 记得带上相机记录精彩时刻 建议提前查看天气预报,选择天气较好的日子出行 需要了解具体某个景点的更多信息或详细路线指引,我可以为您进一步查询。

Read more

【教程】CLAUDE.md 与 AGENTS.md 完全指南:让 AI 编程助手更懂你的项目

【教程】CLAUDE.md 与 AGENTS.md 完全指南:让 AI 编程助手更懂你的项目

【教程】CLAUDE.md 与 AGENTS.md 完全指南:让 AI 编程助手更懂你的项目 本文详细介绍 CLAUDE.md 和 AGENTS.md 两个配置文件的作用、格式和最佳实践,包括文件位置优先级、内容规范、实践案例。适合已使用过 Claude Code、Cursor 等 AI 编程助手的进阶开发者阅读。 【教程】CLAUDE.md 与 AGENTS.md 完全指南:让 AI 编程助手更懂你的项目 * 【教程】CLAUDE.md 与 AGENTS.md 完全指南:让 AI 编程助手更懂你的项目 * 1. 为什么需要这两个文件

2026最新保姆级教程:手把手教你零基础安装与配置本地 AI 智能体 OpenClaw

2026最新保姆级教程:手把手教你零基础安装与配置本地 AI 智能体 OpenClaw

文章目录 * 前言 * 一、下载并安装 OpenClaw * 二、启动配置向导与绑定 AI 大脑 * 1. 启动向导 * 2. 确认账户类型 * 3. 选择快速入门模式 * 4. 选择大模型 (AI 大脑) * 5. 选择 API 接口区域 * 6. 填入你的专属 API Key * 三、连接通讯渠道 (Telegram) * 1. 选择 Telegram * 2. 绑定机器人的 Token * 第四步:安装扩展插件与重启服务 * 1. 技能插件 (Skills) * 2. 附加功能 (Hooks) * 3. 重启并应用配置 * 第五步:设备安全授权与最终测试 (见证奇迹!) * 1.

openJiuwen集成蓝耘AI模型深度解析:从架构设计到企业级Agent实战部署

openJiuwen集成蓝耘AI模型深度解析:从架构设计到企业级Agent实战部署

前言 在人工智能技术从单纯的感知智能向认知智能演进的浪潮中,大语言模型(LLM)的成熟催生了AI Agent(人工智能体)这一全新的应用形态。AI Agent不再局限于传统的单指令执行,而是演进为具备自主感知、推理规划、决策执行能力的智能实体。在这一技术变革背景下,openJiuwen作为一个致力于提供灵活、强大且易用能力的开源Agent平台应运而生。本文将深度剖析openJiuwen的技术架构、核心优势,并基于真实的服务器部署环境,详细拆解从底层环境搭建到上层复杂智能体构建的全过程。 一、 Agentic AI时代的基础设施:openJiuwen概览 openJiuwen的定位不仅是一个开发工具,而是面向生产级应用的Agent全生命周期管理平台。它旨在解决当前大模型应用落地过程中面临的开发门槛高、协同调度难、运行稳定性差等痛点。通过提供标准化的开发框架与高可靠的运行引擎,openJiuwen支持开发者快速构建能够处理各类简单或复杂任务的AI Agent,并实现多Agent间的协同交互。 作为核心代码资产的入口,开发者能在这里查看项目的 Readme 文档、分支管理和最新提交

移动端也能玩转!OpenClaw iOS/Android 端部署教程,语音唤醒 + 全场景随身 AI 助手

移动端也能玩转!OpenClaw iOS/Android 端部署教程,语音唤醒 + 全场景随身 AI 助手

一、背景与价值:随身AI助手的刚需场景 随着大语言模型技术的普及,全场景AI助手的需求日益增长——无论是通勤途中的语音笔记、户外场景的实时翻译,还是离线环境下的知识查询,移动端随身AI都能解决传统桌面AI的场景局限。OpenClaw作为一款轻量级、可离线运行的开源AI框架,支持语音唤醒、多模态交互等核心功能,完美适配iOS/Android双平台部署,为用户打造真正的随身AI助手。 二、核心原理:OpenClaw移动端部署的技术逻辑 OpenClaw的移动端部署核心是将轻量化大语言模型(如Qwen-2-0.5B-Instruct)、语音唤醒模型(如PicoVoice Porcupine)与移动端推理引擎(如MLKit、TensorFlow Lite)进行整合,实现三大核心流程: 1. 低功耗语音唤醒:通过本地运行的轻量唤醒模型监听关键词,避免持续调用麦克风导致的高功耗; 2. 本地推理加速:利用移动端硬件加速(NNAPI、Core ML)运行量化后的大语言模型,实现离线交互; 3. 跨平台适配:通过Flutter或React Native统一代码底座,同时适配iOS的沙箱