VSCode扩展工具Copilot MCP使用教程【MCP】

VSCode扩展工具Copilot MCP使用教程【MCP】
在这里插入图片描述


MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。本文章教你使用VSCode扩展工具Copilot MCP快速上手MCP应用!

1. VSCode中安装Copilot MCP

在这里插入图片描述


Copilot MCP是一个适用于 VSCode 的 MCP Client。

2. Copilot MCP使用

安装之后会出现Coplilot授权,并在左侧菜单中出现MCP Server按钮

在这里插入图片描述

3. Add Server

点击Add Server,MCP Server分为两种建立方式,Process和SSE

在这里插入图片描述


以Process为例,输入必要信息:

在这里插入图片描述


其中Server Name是你给Server起的任意名字,需要注意的是Start Command。
这里我的输入为:

npx -y @modelcontextprotocol/server-filesystem /path 

注意path修改为自己的文件路径,并确保你已安装node.js从而可以使用npx命令
这个Command怎么来的呢?
可从来自MCP Server官方社区获得自己想要的Server:

https://github.com/modelcontextprotocol/servers?tab=readme-ov-file
在这里插入图片描述


以Filesystem为例,点进去可查看其调用方式,以NPX为例:

在这里插入图片描述


其要求我们输入npx命令,并附加上文件路径,可以为多个文件路径,显然,Command格式举例如下:

npx -y @modelcontextprotocol/server-filesystem /path 

注意path修改为自己的文件路径,并确保你已安装node.js从而可以使用npx命令
在Start Command中输入以上命令即可。
输入完成后点击 Add Server
成功后列表显示刚刚添加Server,不显示意味着添加失败。

在这里插入图片描述


点开后可查看该Server提供的Tools列表:

在这里插入图片描述

4. 调用Server

准备一个测试文件,我在/path下创建了个mcp_test.txt文件,里面包含一句话:

在这里插入图片描述


之后,在VSCode 右侧Copilot对话框中出入:

@mcp <内容>
在这里插入图片描述

例如:

@mcp 请读取"/root/xxx"下的“mcp_test.txt”中的内容
在这里插入图片描述

发送后得到回应:

在这里插入图片描述

成功!!!

Read more

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

摘要: 本文旨在为人工智能生成内容(AIGC)领域的爱好者和开发者提供一份详尽的Fooocus部署指南。Fooocus作为一款基于Gradio的开源图像生成软件,凭借其简化的操作和高质量的输出,受到了广泛关注。我们将通过两种截然不同的部署路径——传统的本地手动环境配置与现代化的云平台一键部署——来全面探索Fooocus的落地过程。本文将深入剖析手动部署中的每一个步骤、每一条命令及其背后的技术逻辑,详细记录可能遇到的环境冲突与解决方案,并将其与云端部署的流畅体验进行客观对比,为读者在不同场景下选择最合适的部署策略提供坚实的技术参考。 第一章:引言——Fooocus与AIGC部署的挑战 随着Stable Diffusion等底层模型的开源,AIGC技术,特别是文生图领域,迎来了爆发式的增长。各种应用和WebUI层出不穷,极大地降低了普通用户接触和使用前沿AI模型的门槛。在众多工具中,由lllyasviel(ControlNet的作者)开发的Fooocus,以其独特的哲学脱颖而出。Fooocus的设计理念是“化繁为简”,它在保留Stable Diffusion XL(SDXL)强大能力的

5个步骤打造专业Windows安装包:解决Whisper部署痛点的部署工具实战指南

5个步骤打造专业Windows安装包:解决Whisper部署痛点的部署工具实战指南 【免费下载链接】WhisperHigh-performance GPGPU inference of OpenAI's Whisper automatic speech recognition (ASR) model 项目地址: https://gitcode.com/gh_mirrors/wh/Whisper Windows安装包制作是开源项目推广的关键环节,而自动化部署流程则是提升用户体验的核心。本文将通过5个实用步骤,带你掌握使用WiX Toolset为Whisper项目构建专业安装包的全过程,轻松解决DLL版本混乱、运行时依赖缺失等常见部署难题。 一、深度剖析Whisper部署的五大痛点 在Windows环境部署Whisper时,开发者和用户常常面临以下挑战: 💡 DLL地狱困境:手动复制Whisper.dll、WhisperNet.dll等组件时,极易出现版本不匹配导致的"找不到模块"错误 🔧 运行时依赖迷宫:缺乏Visual C++运行时或Direct3D 11支持时,

YOLOFuse Midjourney 提示词逆向生成工具设想

YOLOFuse Midjourney 提示词逆向生成工具设想 在城市消防演练的夜间热成像画面中,浓烟弥漫、能见度极低,一名救援人员的身影若隐若现。传统可见光摄像头几乎无法捕捉其轮廓,而红外图像虽能识别热源,却难以判断动作与姿态。如果此时有一套系统,不仅能精准检测出“一个正在移动的人体”,还能自动输出一句自然语言描述:“a glowing human figure walking through thick smoke, night vision style, thermal imaging”——这句提示词恰好可用于 Midjourney 生成高度还原真实场景的艺术图像。 这不是科幻,而是多模态感知与生成式 AI 融合的现实可能。随着 RGB-IR 双模态目标检测技术的成熟和 AIGC 工具的普及,我们正站在一个交叉创新的临界点上:让机器不仅“看得清”,还能“说得准”。 Ultralytics YOLO 系列因其高效性和部署便捷性,已成为工业界主流的目标检测框架。然而,标准

互联网大厂Java面试故事:AIGC场景下微服务、缓存与安全技术全流程解析

互联网大厂Java面试故事:AIGC场景下微服务、缓存与安全技术全流程解析 故事场景 主角谢飞机,一位风趣幽默的程序员,面试官则以严谨著称。这次面试设定在一家主攻AIGC(生成式AI内容)平台的大厂。面试围绕AI内容生成平台的高并发、微服务架构、安全与高可用等场景,进行系统技术提问。 第一轮:基础与AIGC平台高并发场景 面试官: 1. 平台AIGC内容生成服务需支持高并发请求,你会如何用Java SE与JVM参数进行优化? 2. AIGC平台服务众多,Spring Boot与Spring WebFlux各适合哪些场景? 3. 平台数据库访问压力大,Hibernate、JPA、HikariCP如何协同保证高性能? 谢飞机: 1. JVM参数可以配大点,线程池多开点,Java 8的Stream流也可以用用! 2. Spring Boot能快速起项目,WebFlux适合高并发,异步点的场景。 3. Hibernate和JPA都能查数据库,HikariCP是连接池,连一起用更快。 面试官(点头): 基础答得不错,JVM调优和连接池很关键,