小巧的 MCPHost
MCPHost 可以在命令行下使用,使大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前支持 Claude 3.5 Sonnet、Ollama 等。本次实践使用自己架设的 DeepSeek V3 模型,跑通了 Time MCP 服务。
项目地址:GitHub - mark3labs/mcphost
下载安装
使用非常方便,直接下载解压即可使用。官网提供 Windows、Linux 和 MacOS 三个系统的压缩包。
例如 Windows 系统,直接下载压缩包,解压到工作目录,直接就是可执行文件,在工作目录即可使用。当然也可以把工作目录放入系统 PATH 路径中,就可以在任意地方调用指令了。
前置需求:大约需要先安装好 uv 和 nodejs。
MCPHost 交互实践
学习 MCPHost 命令
直接在命令行下,一句话就能进行 MCP 的交互,比如在工作目录创建一个 Time MCP 配置文件 mcp.json,内容如下:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
搭建一个 AI 服务器,地址如 http://<server-ip>:1337。或者也可以用手头有的 AI API 服务,比如 OpenAI、Ollama、硅基流动、LMStudio 等提供的 API 调用服务。
MCPHost 使用一句命令就能连通 AI 服务器,启动 mcp.json 设置的 mcp-server-time,并进入交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://<server-ip>:1337 --config mcp.json
在交互界面就可以输入文字进行交互了,比如问它几点了。
┃ Enter your prompt (Type /help for commands, Ctrl+C to quit) ┃
查看帮助
可以用 /help 看看 MCPHost 的指令帮助:
mcphost.exe -h


