可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

小巧的MCPHost

MCPHost 可以在命令行下使用,使大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前支持Claude 3.5 Sonnet和Ollama等。本次实践使用自己架设的Deepseek v3模型,跑通了Time MCP服务。

 官网:GitHub - mark3labs/mcphost: A CLI host application that enables Large Language Models (LLMs) to interact with external tools through the Model Context Protocol (MCP).

下载安装

使用非常方便,直接下载解压即可使用。官网提供Windows、Linux和MacOS三个系统的压缩包:

https://github.com/mark3labs/mcphost/releases/tag/v0.4.4

比如Windows系统,直接下载压缩包,解压到工作目录,直接就是可执行文件,在工作目录即可使用。当然也可以把工作目录放入系统PATH路径中,就可以在任意地方调用指令了。

其它前置需求:大约需要先安装好uv和nodejs。

MCPHost交互实践

学习MCPHost命令

直接在命令行下,一句话就能进行MCP的交互,比如在工作目录创建一个Time MCP配置文件mcp.json,内容如下:

{ "mcpServers": { "time": { "command": "uvx", "args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"] } } }

搭建一个AI服务器,地址是http://192.168.1.5:1337 。或者也可以用手头有的AI API服务,比如OpenAI、Ollama、硅基流动、LMStudio等提供的API调用服务。

MCPHost使用一句命令就能连通AI服务器,启动mcp.json设置的mcp-server-time,并进入交互界面:

mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json

在交互界面就可以输入文字进行交互了,比如问它几点了。

┃ Enter your prompt (Type /help for commands, Ctrl+C to quit) ┃

查看帮助

可以用/help看看MCPHost的指令帮助:

mcphost.exe -h MCPHost is a CLI tool that allows you to interact with various AI models through a unified interface. It supports various tools through MCP servers and provides streaming responses. Available models can be specified using the --model flag: - Anthropic Claude (default): anthropic:claude-3-5-sonnet-latest - OpenAI: openai:gpt-4 - Ollama models: ollama:modelname Example: mcphost -m ollama:qwen2.5:3b mcphost -m openai:gpt-4 Usage: mcphost [flags] Flags: --anthropic-api-key string Anthropic API key --anthropic-url string base URL for Anthropic API (defaults to api.anthropic.com) --config string config file (default is $HOME/mcp.json) --debug enable debug logging -h, --help help for mcphost --message-window int number of messages to keep in context (default 10) -m, --model string model to use (format: provider:model, e.g. anthropic:claude-3-5-sonnet-latest or ollama:qwen2.5:3b) (default "anthropic:claude-3-5-sonnet-latest") --openai-api-key string OpenAI API key --openai-url string base URL for OpenAI API (defaults to api.openai.com)

进入交互界面后,还可以用/help来看交互界面下的命令: 

 • /help: Show this help message • /tools: List all available tools • /servers: List configured MCP servers • /history: Display conversation history • /quit: Exit the application You can also press Ctrl+C at any time to quit. ## Available Models Specify models using the --model or -m flag: • Anthropic Claude: anthropic:claude-3-5-sonnet-latest • Ollama Models: ollama:modelname Examples: mcphost -m anthropic:claude-3-5-sonnet-latest mcphost -m ollama:qwen2.5:3b ┃ Enter your prompt (Type /help for commands, Ctrl+C to quit) ┃

 比如用/tool看看工具:

 • time • get_current_time • Get current time in a specific timezones • convert_time • Convert time between timezones

可以看到当前的工具是time。 

用/services看看服务

 # time Command uvx Arguments mcp-server-time --local-timezone=Asia/Shanghai

调试mcp-server-time

用模型claude-3-5-sonnet(模型没调通)

用gpt-4o模型问不出时间来。

尝试换个模型,换成claude-3-5-sonnet

mcphost --openai-api-key=$OPENAI_API_KEY -m openai:claude-3-5-sonnet --openai-url http://192.168.1.5:1337 --config mcp.json 

这个问了问题会退出...

因为是自己搭建的服务器,所以可能是这个模型不行(不通)。后来测试了一下,确实claude-3-5-sonnet本身没调好,普通交互就会报错(ContentLengthError: 400)

换成gpt-4o或者gpt-4,都是可以有回复的,但是无法报时,没有达到预期目标。

打开360信任

同时所做的操作是将uv cache所在的目录(就是启动mcp-server-time服务所用的临时目录)在360里打开信任。防止潜在的网络通信故障或进程无法启动的问题。

换成deepseek-v3,成功!

太不容易了,最后把模型换成deepseek-s3,终于成功了!

mcphost --openai-api-key=$OPENAI_API_KEY -m openai:deepseek-v3 --openai-url http://192.168.1.5:1337 --config mcp.json

问它几点了?

 Assistant: Hi there! How can I assist you today? You: what time is it? Assistant: Current Time - Today is Monday, March 17, 2025. - The exact time depends on your location, but here are some references: - Central Daylight Time (CDT): 08:54:06 PM (UTC-5) - Eastern Daylight Time (EDT): 09:54:06 PM (UTC-4) Let me know if you'd like the time for a specific location! 

看看,它回答出了今天的日期和时间,达到了使用MCP获取当前时间的预期目标。也就是说deepseek-v3模型是支持函数调用的!

再来看个完整的交互

E:\360Downloads\mcphost_Windows_x86_64>mcphost --openai-api-key=$OPENAI_API_KEY -m openai:deepseek-v3 --openai-url http://192.168.1.5:1337 --config mcp.json 2025/03/19 09:26:51 INFO Model loaded provider=openai model=deepseek-v3 2025/03/19 09:26:51 INFO Initializing server... name=time 2025/03/19 09:26:55 INFO Server connected name=time 2025/03/19 09:26:55 INFO Tools loaded server=time count=2uit) You: 请告诉我现在的时间,谢谢 Assistant: 您好!今天是2025年3月19日,星期三。以下是当前的时间信息: 当前时间 • 日期:2025年3月19日 • 星期:星期三 • 时间:请查看您设备上的时钟以获取准确时间。 如果您需要更具体的时间信息,请告诉我您的时区,我可以为您提供更精确的时间。 You: 请告诉我现在的准确时间,谢谢 Assistant: 您好!由于我无法直接访问实时数据,无法提供当前的准确时间。建议您查看您的设备(如手机、电脑或手表)上的时钟,以获取最准确的时间信息。如果您需要帮助,请告诉我您的时区,我可以为您提供相关的时间计算方法。 You: 请告诉我当前的时间,谢谢 Assistant: 由于我无法直接访问实时数据,因此无法提供当前的准确时间。建议您查看您的设备(如手机、电脑或手表)上的时钟,以获取最准确的时间信息。如果您需要帮助,请告诉我您的时区,我可以为您提供相关的时间计算方法。 You: 我在济宁,请告诉我当前的实践 Assistant: 您好!以下是济宁当前的时间信息: 济宁当前时间 • 日期:2025年3月19日 • 星期:星期三 • 时间:上午9:28:45 • 时区:CST(中国标准时间,UTC/GMT +8小时) 如果您需要进一步帮助,请随时告诉我! Goodbye!

但是它并不是每回都能正确回答,有时候可能答不出来。也许还是要用官方建议的claude-3-5-sonnet模型效果会更好些。有claude-3-5-sonnet模型的朋友可以试一下,欢迎在评论区讨论!

目前测试出来支持的模型:deepseek-v3 deepseek-chat

总结

这是一次很好的实践。

MCPHost小巧实用,可以很方便的架起大模型和MCP之间的桥梁。

但是效果,尚需努力,使用deepseek-v3模型,离可以用,还有些距离。

测试下来支持MCP的模型有:deepseek-v3 llama3.2:3b llama3.3:70b 

欢迎大家使用各种模型来评测下,哪种模型更适合MCP请写在评论,谢谢啦!

Read more

【大模型实战篇】基于Claude MCP协议的智能体落地示例

【大模型实战篇】基于Claude MCP协议的智能体落地示例

1. 背景         之前我们在《MCP(Model Context Protocol) 大模型智能体第一个开源标准协议》一文中,介绍了MCP的概念,虽然了解了其概念、架构、解决的问题,但还缺少具体的示例,来帮助进一步理解整套MCP框架如何落地。         今天我们基于claude的官方例子--获取天气预报【1】,来理解MCP落地的整条链路。 2. MCP示例         该案例是构建一个简单的MCP天气预报服务器,并将其连接到主机,即Claude for Desktop。从基本设置开始,然后逐步发展到更复杂的使用场景。         大模型虽然能力非常强,但其弊端就是内容是过时的,这里的过时不是说内容很旧,只是表达内容具有非实时性。比如没有获取天气预报和严重天气警报的能力。因此我们将使用MCP来解决这一问题。         构建一个服务器,该服务器提供两个工具:获取警报(get-alerts)和获取预报(get-forecast)。然后,将该服务器连接到MCP主机(在本例中为Claude for Desktop)。         首先我们配置下环

By Ne0inhk
AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk
基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk