VSCode扩展工具Copilot MCP使用教程【MCP】

VSCode扩展工具Copilot MCP使用教程【MCP】
在这里插入图片描述


MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。本文章教你使用VSCode扩展工具Copilot MCP快速上手MCP应用!

1. VSCode中安装Copilot MCP

在这里插入图片描述


Copilot MCP是一个适用于 VSCode 的 MCP Client。

2. Copilot MCP使用

安装之后会出现Coplilot授权,并在左侧菜单中出现MCP Server按钮

在这里插入图片描述

3. Add Server

点击Add Server,MCP Server分为两种建立方式,Process和SSE

在这里插入图片描述


以Process为例,输入必要信息:

在这里插入图片描述


其中Server Name是你给Server起的任意名字,需要注意的是Start Command。
这里我的输入为:

npx -y @modelcontextprotocol/server-filesystem /path 

注意path修改为自己的文件路径,并确保你已安装node.js从而可以使用npx命令
这个Command怎么来的呢?
可从来自MCP Server官方社区获得自己想要的Server:

https://github.com/modelcontextprotocol/servers?tab=readme-ov-file
在这里插入图片描述


以Filesystem为例,点进去可查看其调用方式,以NPX为例:

在这里插入图片描述


其要求我们输入npx命令,并附加上文件路径,可以为多个文件路径,显然,Command格式举例如下:

npx -y @modelcontextprotocol/server-filesystem /path 

注意path修改为自己的文件路径,并确保你已安装node.js从而可以使用npx命令
在Start Command中输入以上命令即可。
输入完成后点击 Add Server
成功后列表显示刚刚添加Server,不显示意味着添加失败。

在这里插入图片描述


点开后可查看该Server提供的Tools列表:

在这里插入图片描述

4. 调用Server

准备一个测试文件,我在/path下创建了个mcp_test.txt文件,里面包含一句话:

在这里插入图片描述


之后,在VSCode 右侧Copilot对话框中出入:

@mcp <内容>
在这里插入图片描述

例如:

@mcp 请读取"/root/xxx"下的“mcp_test.txt”中的内容
在这里插入图片描述

发送后得到回应:

在这里插入图片描述

成功!!!

Read more

别被“会聊天”的AI骗了!真正的数字助理,应该是ToClaw这样的

别被“会聊天”的AI骗了!真正的数字助理,应该是ToClaw这样的

这段时间 OpenClaw 很火,火到不少人第一次开始认真讨论一件事: AI 到底该只是陪你聊天,还是应该替你把事完成? 从官方说明看,OpenClaw 更偏向个人开源 AI 助手路线,推荐通过终端里的 onboarding wizard 完成配置,Windows 侧也建议走 WSL2。这种路线很酷,但对大多数普通办公用户来说,还是意味着一定的学习和折腾成本。 也正因为这样,我反而更能理解 ToDesk 推出 ToClaw 的价值:它不是想让每个人都去研究怎么“部署一个龙虾”,而是想把 AI 直接变成一个你登录 ToDesk 后就能随时使唤的数字助理。 真正的差别,不是会不会聊天,而是会不会接任务 现在很多 AI 工具都已经“很会说”了。写总结、写标题、润色文案、翻译内容,基本都不难。但问题在于,真实工作并不是一个纯聊天场景。

用 Python 搭建本地 AI 问答系统:避开 90% 新手都会踩的环境坑

用 Python 搭建本地 AI 问答系统:避开 90% 新手都会踩的环境坑

欢迎文末添加好友交流,共同进步! “ 俺はモンキー・D・ルフィ。海贼王になる男だ!” * 前言 * 一、整体架构概览 * 二、新手踩坑分布图 * 三、环境搭建:最容易翻车的第一步 * 3.1 用虚拟环境隔离,别污染全局 * 3.2 PyTorch 安装:版本对齐是关键 * 3.3 依赖管理:用 requirements.txt 锁定版本 * 四、模型下载:别让网络毁了你的心情 * 4.1 使用 Ollama 管理本地模型(强烈推荐) * 4.2 用 Python 调用 Ollama * 五、搭建 RAG 问答系统 * 5.

AI的提示词专栏:使用 “Penalty” 控制模型重复或废话

AI的提示词专栏:使用 “Penalty” 控制模型重复或废话

AI的提示词专栏:使用 “Penalty” 控制模型重复或废话 本文聚焦大语言模型输出中常见的重复、冗余问题,深入解析 “Penalty(惩罚机制)” 的应用。首先阐述模型重复输出的根源,包括概率生成的路径依赖、训练数据的重复模式迁移及上下文理解边界模糊;接着详解 Repeat Penalty(抑制连续重复片段)与 Frequency Penalty(抑制高频重复 token)两大核心参数的原理、范围及差异;随后提供长文本报告、营销文案、多轮对话等 6 大场景的实战配置策略,搭配可复用的 Prompt 示例;还指出盲目提高系数、忽视指令协同等 4 大误区及避坑方法,推荐 3 款辅助工具。最后总结实践建议,帮助读者通过 “适度约束” 平衡避免重复与文本自然度,提升 Prompt 输出质量。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。

AI【应用 04】FunASR离线文件转写服务开发指南(实践篇)

FunASR离线文件转写服务开发指南(实践篇) * 1.是什么 * 2. 快速上手 * 2.1 docker安装 * 2.2 镜像启动 * 2.3 服务端启动 * 2.4 客户端测试与使用 * 3. 客户端用法详解 * 3.1 python-client * 3.2 cpp-client * 3.3 Html网页版 * 3.4 Java-client * 3.4.1 Building for Linux/Unix * 4. 服务端用法详解 * 4.1 启动FunASR服务 * 4.2 关闭FunASR服务 * 4.3 修改模型及其他参数