OpenClaw 支持 Azure OpenAI 密钥与 Endpoint 配置
OpenClaw 支持 Azure OpenAI 格式的密钥和 Endpoint(如 https://xxx.openai.azure.com/),但并非原生直接支持,需通过配置或代理实现兼容。截至 2026 年 3 月,社区主流方案如下:
OpenClaw 接入 Azure OpenAI 的两种方案:一是通过 LiteLLM 代理桥接,二是直接修改 BaseUrl 路径。因原生不支持 Azure 格式 Endpoint,推荐优先使用 LiteLLM 方案,安装后配置 yaml 文件启动本地服务,并在 OpenClaw 中指向 localhost 代理地址即可调用 Azure 模型。
OpenClaw 支持 Azure OpenAI 格式的密钥和 Endpoint(如 https://xxx.openai.azure.com/),但并非原生直接支持,需通过配置或代理实现兼容。截至 2026 年 3 月,社区主流方案如下:
最推荐:用 LiteLLM 做代理(丝滑、无需改 OpenClaw 源码)
litellm --config litellm_config.yaml直接 hack base_url(部分版本可行,无需代理)
https://xxx.openai.azure.com/openai/v1(注意加 /openai/v1,这是 Azure 的 v1 兼容路径)/openai/v1 后直接能用(尤其是 Foundry 模型),但稳定性因版本而异——如果报 404 或格式错误,就切回 LiteLLM。其他变通
在 OpenClaw 的 config(~/.openclaw/openclaw.json 或 UI 设置)把模型 provider 指向 LiteLLM 的本地地址:
{
"models": {
"providers": {
"openai": {
"baseUrl": "http://localhost:4000/v1",
"apiKey": "sk-xxx"
}
}
}
}
配置 litellm_config.yaml 或环境变量:
model_list:
- model_name: gpt-4o
litellm_params:
model: azure/gpt-4o-deployment
api_base: https://xxx.openai.azure.com/
api_key: your-azure-openai-key
api_version: 2024-02-15-preview
deployment_name: gpt-4o-deployment
以下是使用 LiteLLM 作为代理来桥接你的 Azure OpenAI endpoint(https://xxx.openai.azure.com/)的完整配置示例。LiteLLM 的配置文件是 YAML 格式,不是 Python 代码,但你可以用 Python 方式启动代理(通过命令行或脚本)。
pip install litellm
# 如果想支持代理服务器完整功能,建议再装这些(可选但推荐)
pip install 'litellm[proxy]'
在当前目录下新建文件 litellm_config.yaml,内容如下(已针对你的 endpoint 调整):
model_list:
- model_name: gpt-4o
litellm_params:
model: azure/gpt-4o-deployment
api_base: https://xxx.openai.azure.com/
api_key: "your-azure-openai-api-key-here"
api_version: "2024-10-21"
# 推荐使用较新的版本,根据你的部署支持情况可改成 "2024-02-15-preview" 或 "2025-04-01-preview" 等
# 可选:如果需要额外参数
# temperature: 0.7
# max_tokens: 4096
- model_name: gpt-4o-mini
litellm_params:
model: azure/gpt-4o-mini-deployment
api_base: https://xxx.openai.azure.com/
api_key: "your-azure-openai-api-key-here"
api_version: "2024-10-21"
general_settings:
master_key: sk-1234567890abcdef
# 强烈推荐设置一个 master key,OpenClaw 连接时用这个作为 apiKey
# 可选:如果想用环境变量(更安全,不把 key 写死在 yaml 里)
# litellm_params:
# api_key: os.environ/AZURE_OPENAI_KEY
关键替换点:
gpt-4o-deployment 改成你在 Azure AI Studio / Azure OpenAI 里实际创建的 Deployment Name(不是模型名,是你自己命名的 deployment,例如 'my-gpt4o-2025')。your-azure-openai-api-key-here 替换成真实的 API Key。api_version:去 Azure 门户看你的部署支持的版本,或者用最新稳定版(2026 年常用 2024-10-21 或更高)。litellm --config litellm_config.yaml --port 4000
# 或加 --detailed_debug 看详细日志
litellm --config litellm_config.yaml --detailed_debug
新建一个文件 start_litellm_proxy.py:
import litellm
from litellm.proxy import proxy_server
# 加载配置文件(相对路径或绝对路径)
config_path = "litellm_config.yaml"
# 启动 proxy 服务器
proxy_server.run_server(
config=config_path,
port=4000, # 可改端口
# host="0.0.0.0", # 默认就是 0.0.0.0
# detailed_debug=True, # 调试日志
)
# 如果想在代码里直接运行(不推荐生产环境)
# litellm.proxy.proxy_cli.run()
然后执行:
python start_litellm_proxy.py
在 OpenClaw 的配置文件(~/.openclaw/openclaw.json 或 UI 设置)中,把模型 provider 指向 LiteLLM:
{
"models": {
"providers": {
"openai": {
"baseUrl": "http://localhost:4000/v1",
"apiKey": "sk-1234567890abcdef"
}
}
}
}
model_name,如 'gpt-4o' 或 'gpt-4o-mini'。
微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online