VSCode扩展工具Copilot MCP使用教程【MCP】

VSCode扩展工具Copilot MCP使用教程【MCP】
在这里插入图片描述


MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。本文章教你使用VSCode扩展工具Copilot MCP快速上手MCP应用!

1. VSCode中安装Copilot MCP

在这里插入图片描述


Copilot MCP是一个适用于 VSCode 的 MCP Client。

2. Copilot MCP使用

安装之后会出现Coplilot授权,并在左侧菜单中出现MCP Server按钮

在这里插入图片描述

3. Add Server

点击Add Server,MCP Server分为两种建立方式,Process和SSE

在这里插入图片描述


以Process为例,输入必要信息:

在这里插入图片描述


其中Server Name是你给Server起的任意名字,需要注意的是Start Command。
这里我的输入为:

npx -y @modelcontextprotocol/server-filesystem /path 

注意path修改为自己的文件路径,并确保你已安装node.js从而可以使用npx命令
这个Command怎么来的呢?
可从来自MCP Server官方社区获得自己想要的Server:

https://github.com/modelcontextprotocol/servers?tab=readme-ov-file
在这里插入图片描述


以Filesystem为例,点进去可查看其调用方式,以NPX为例:

在这里插入图片描述


其要求我们输入npx命令,并附加上文件路径,可以为多个文件路径,显然,Command格式举例如下:

npx -y @modelcontextprotocol/server-filesystem /path 

注意path修改为自己的文件路径,并确保你已安装node.js从而可以使用npx命令
在Start Command中输入以上命令即可。
输入完成后点击 Add Server
成功后列表显示刚刚添加Server,不显示意味着添加失败。

在这里插入图片描述


点开后可查看该Server提供的Tools列表:

在这里插入图片描述

4. 调用Server

准备一个测试文件,我在/path下创建了个mcp_test.txt文件,里面包含一句话:

在这里插入图片描述


之后,在VSCode 右侧Copilot对话框中出入:

@mcp <内容>
在这里插入图片描述

例如:

@mcp 请读取"/root/xxx"下的“mcp_test.txt”中的内容
在这里插入图片描述

发送后得到回应:

在这里插入图片描述

成功!!!

Read more

【用AI学Agent】Agent入门前置:大模型基础(开发向)

【用AI学Agent】Agent入门前置:大模型基础(开发向)

首先欢迎大家点进文章,其次 申明:本系列内容是作者通过AI学习Agent得到的内容,如若有错误之处,欢迎批评指正 很多想入门AI Agent开发的朋友,例如我,第一步就被“大模型”的各种概念绕晕——上下文窗口、Token、温度、思维链,这些到底是什么?和Agent有什么关系? 其实不用慌,Agent的核心是“让AI自主做事”,而大模型(LLM)就是Agent的“大脑”——不懂大脑的工作原理,后续学RAG、工具调用、Agent架构都会很吃力。 这篇博客专门为Agent学习者打造,包含开发中能直接用到的大模型基础知识点,从“是什么”到“怎么用”,帮你夯实Agent入门的第一块基石。 一、大模型(LLM)到底是什么? * 很多人对大模型的理解有误区,觉得它“无所不能”,能像人一样思考、理解世界; * 也有人觉得它“只是个问答机器人”,没必要深入学习。 其实这两种想法都不对。 用最通俗的话讲:

大学生AI写作工具全流程应用指南(从开题到答辩)

说明:本清单按论文写作时间线划分6个核心阶段,明确各阶段工具搭配、操作要点及注意事项,可直接对照执行,兼顾效率与学术合规性。 阶段1:开题阶段(核心目标:确定选题+完成开题报告) 工具搭配:豆包AI + PaperRed 操作步骤: 1. 选题构思:打开豆包AI,输入“XX专业(如汉语言文学)本科论文选题方向”,获取5-8套开题思路;同时用PaperRed的“学术热点图谱”功能,输入核心关键词,查看近3年文献增长趋势与研究空白区,筛选出兼具可行性与创新性的选题。 2. 框架及内容生成:在PaperRed中选择“开题报告”,输入确定的选题,选择自己学校的模板,生成包含“研究背景、目的意义、研究方法、进度安排”的标准框架及内容并且格式也是调整好的,生成基础内容后人工优化,确保逻辑连贯。 注意事项:选题需结合自身专业基础,避免过度依赖AI选择超出能力范围的课题。 阶段2:文献搜集与梳理阶段(核心目标:高效获取权威文献+

DeepSeek-R1-Distill-Llama-8B在数学解题中的应用案例

DeepSeek-R1-Distill-Llama-8B在数学解题中的应用案例 你是否曾经被复杂的数学题困扰,需要一个智能助手来帮你理清思路?DeepSeek-R1-Distill-Llama-8B可能就是你要找的解决方案。这个专门针对推理任务优化的模型,在数学解题方面展现出了令人印象深刻的能力。 本文将带你深入了解这个模型在数学领域的实际应用效果。通过多个真实案例展示,你会看到它是如何一步步解决从初中数学到竞赛级别的各种题目,不仅能给出正确答案,还能提供清晰的解题思路。 1. 模型能力概述 DeepSeek-R1-Distill-Llama-8B是DeepSeek团队推出的推理专用模型,专门针对数学、编程和逻辑推理任务进行了优化。虽然参数量只有80亿,但在数学解题方面的表现却相当出色。 从基准测试结果来看,这个模型在多个数学相关评测中都有不错的表现: * AIME 2024竞赛题:50.4%的通过率 * MATH-500数据集:89.1%的准确率 * GPQA钻石级难题:49.0%的解决率 这些数字意味着什么?简单来说,这个模型能够解决大约一半的高中数学竞赛题目