MCPHost 简介
MCPHost 是一款命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。目前支持 Claude 3.5 Sonnet、Ollama 等模型。
项目地址:GitHub - mark3labs/mcphost
下载安装
工具非常便捷,下载解压即可使用。官网提供 Windows、Linux 和 MacOS 三个系统的压缩包。
例如 Windows 系统,直接下载压缩包,解压到工作目录,即可直接使用可执行文件。也可以将工作目录加入系统 PATH 路径,以便在任意位置调用指令。
前置需求:需先安装好 uv 和 Node.js。
MCPHost 交互实践
配置 MCP 服务
在工作目录下创建 mcp.json 配置文件,内容如下:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
搭建一个 AI 服务器地址,例如 http://192.168.1.5:1337。也可以使用 OpenAI、Ollama、硅基流动、LMStudio 等提供的 API 调用服务。
使用以下命令连通 AI 服务器,启动配置的 MCP 服务并进入交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
在交互界面输入文字即可进行交互,例如询问当前时间。
查看帮助
运行 -h 参数查看 MCPHost 的指令帮助:
mcphost.exe -h
输出示例:
MCPHost is a CLI tool that allows you to interact with various AI models through a unified interface.
Available models can be specified the --model flag:
- Anthropic Claude (): anthropic:claude---sonnet-latest
- OpenAI: openai:gpt-
- Ollama models: ollama:modelname
mcphost [flags]
--anthropic-api- Anthropic API
--anthropic-url base URL Anthropic API
--config config file ( $HOME/mcp.json)
--debug enable debug logging
-h, --help help mcphost
-m, --model model use (format: provider:model)
--openai-api- OpenAI API
--openai-url base URL OpenAI API


