VSCode扩展工具Copilot MCP使用教程【MCP】

VSCode扩展工具Copilot MCP使用教程【MCP】
在这里插入图片描述


MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。本文章教你使用VSCode扩展工具Copilot MCP快速上手MCP应用!

1. VSCode中安装Copilot MCP

在这里插入图片描述


Copilot MCP是一个适用于 VSCode 的 MCP Client。

2. Copilot MCP使用

安装之后会出现Coplilot授权,并在左侧菜单中出现MCP Server按钮

在这里插入图片描述

3. Add Server

点击Add Server,MCP Server分为两种建立方式,Process和SSE

在这里插入图片描述


以Process为例,输入必要信息:

在这里插入图片描述


其中Server Name是你给Server起的任意名字,需要注意的是Start Command。
这里我的输入为:

npx -y @modelcontextprotocol/server-filesystem /path 

注意path修改为自己的文件路径,并确保你已安装node.js从而可以使用npx命令
这个Command怎么来的呢?
可从来自MCP Server官方社区获得自己想要的Server:

https://github.com/modelcontextprotocol/servers?tab=readme-ov-file
在这里插入图片描述


以Filesystem为例,点进去可查看其调用方式,以NPX为例:

在这里插入图片描述


其要求我们输入npx命令,并附加上文件路径,可以为多个文件路径,显然,Command格式举例如下:

npx -y @modelcontextprotocol/server-filesystem /path 

注意path修改为自己的文件路径,并确保你已安装node.js从而可以使用npx命令
在Start Command中输入以上命令即可。
输入完成后点击 Add Server
成功后列表显示刚刚添加Server,不显示意味着添加失败。

在这里插入图片描述


点开后可查看该Server提供的Tools列表:

在这里插入图片描述

4. 调用Server

准备一个测试文件,我在/path下创建了个mcp_test.txt文件,里面包含一句话:

在这里插入图片描述


之后,在VSCode 右侧Copilot对话框中出入:

@mcp <内容>
在这里插入图片描述

例如:

@mcp 请读取"/root/xxx"下的“mcp_test.txt”中的内容
在这里插入图片描述

发送后得到回应:

在这里插入图片描述

成功!!!

Read more

【2026最新】OpenClaw保姆级安装配置教程-手把手教你在Windows上用 Node.js 22+Git+Kimi模型+飞书机器人去部署你的小龙虾 超详细带图展示详解(Windows 版)

【2026最新】OpenClaw保姆级安装配置教程-手把手教你在Windows上用 Node.js 22+Git+Kimi模型+飞书机器人去部署你的小龙虾 超详细带图展示详解(Windows 版)

前言介绍 2026年,你的“数字员工”入职指南 * 你是否设想过这样一个场景:在2026年的今天,你的飞书不再仅仅是一个打卡和开会的工具,而是一个拥有“超级大脑”的智能中枢。 * 当你深夜灵感迸发时,它能陪你头脑风暴;当你被繁琐的数据报表淹没时,它能一键生成分析摘要;甚至当你需要管理密码、监控博客更新时,它都能像一位得力的私人助理般默默搞定。 这一切不再是科幻电影里的桥段,而是触手可及的现实。 为什么是OpenClaw? * 在AI Agent(智能体)爆发的2026年,OpenClaw 无疑是GitHub上最耀眼的明星之一。它被誉为“AI界的npm”,以其极高的可扩展性和本地化部署的隐私安全性,迅速席卷全球开发者社区。 * 不同于普通的聊天机器人,OpenClaw 是一个 “行动式智能体” 。它不仅能陪你聊天,更能通过安装各种 Skills(技能) 来接管你的工作流。它就像一只无所不能的“赛博龙虾”,潜伏在你的电脑后台,随时准备响应你的召唤。 ️告别环境混乱,拥抱极致纯净 * 对于开发者而言,部署环境往往是一场噩梦。不同项目依赖不同版本的 Node.

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人 * 📋 文章目录结构 * 1.3 一键安装 OpenClaw(推荐) * 1.4 通过 npm 手动安装 * 1.5 运行 Onboard 向导 * 1.6 验证安装 * 步骤二:配置 Coding Plan 模型 * 🅰️ 选项 A:阿里百炼 Coding Plan * A.1 订阅与获取凭证 * A.2 在 OpenClaw 中配置 * A.3 可用模型列表

WebUI集成+零鉴权|MiDaS单目深度估计镜像使用全解析

WebUI集成+零鉴权|MiDaS单目深度估计镜像使用全解析 概述:从2D图像中“看见”3D空间 在计算机视觉领域,单目深度估计(Monocular Depth Estimation, MDE) 是一项极具挑战性但又至关重要的技术。它旨在仅通过一张普通的2D照片,推断出场景中每个像素点到摄像机的相对距离,从而重建出三维空间结构。这项能力对于机器人导航、自动驾驶、增强现实(AR)、虚拟现实(VR)以及智能安防等应用场景具有深远意义。 传统上,获取深度信息依赖于双目摄像头、激光雷达或ToF传感器等硬件设备,成本高且部署复杂。而MDE技术则提供了一种低成本、易部署的替代方案——只需一个普通摄像头,即可实现对环境的“3D感知”。 本文将深入解析一款基于 Intel MiDaS 模型 构建的轻量级、高稳定性、无需Token验证 的AI镜像:AI 单目深度估计 - MiDaS。该镜像不仅集成了WebUI交互界面,还针对CPU环境进行了深度优化,真正实现了“开箱即用”的深度估计体验。