OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南

本文档介绍如何将 GitHub Copilot 作为模型提供商集成到 OpenClaw 中,实现通过 GitHub 账户调用 Copilot 模型能力。

目录


什么是 OpenClaw

OpenClaw 是一个开源的 AI 助手平台,提供自托管的 AI 网关(Gateway)和代理(Agent)能力。它支持多种模型提供商(Anthropic、OpenAI、Google、GitHub Copilot 等),并能通过 Telegram、Discord、WhatsApp、iMessage 等多种渠道进行对话交互。

核心特性:

  • 自托管 AI Gateway,支持多模型调度与故障转移
  • 支持 30+ 种模型提供商
  • 支持插件、技能(Skills)扩展
  • 支持多平台(macOS / Linux / Windows / Docker / Kubernetes)

什么是 GitHub Copilot

GitHub Copilot 是 GitHub 推出的 AI 编程助手,基于用户的 GitHub 账户和订阅计划,提供 GPT-4o、GPT-4.1、Claude 等多种大模型能力。将其接入 OpenClaw 后,可以免费或低成本地使用这些模型来驱动 AI 助手。


前提条件

在开始集成之前,请确保满足以下条件:

条件说明
GitHub 账户需要已订阅 GitHub Copilot(个人版、商业版或企业版均可)
Node.js推荐 Node 24,最低支持 Node 22.14+
交互式终端(TTY)认证步骤需要在可交互的终端中执行,不支持纯脚本/CI 环境
操作系统macOS / Linux / WSL2(推荐)/ Windows 原生

检查 Node.js 版本:

node--version

安装 OpenClaw

macOS / Linux / WSL2

curl-fsSL https://openclaw.ai/install.sh |bash

Windows (PowerShell)

iwr-useb https://openclaw.ai/install.ps1 |iex

通过 npm 安装

npminstall-g openclaw@latest 

通过 pnpm 安装

pnpmadd-g openclaw@latest pnpm approve-builds -g# pnpm 需要显式批准含构建脚本的包

安装完成后运行引导程序

openclaw onboard --install-daemon 

引导程序会帮助你选择模型提供商、配置 API Key,并启动 Gateway,整个过程约 2 分钟。

验证安装

openclaw --version# 确认 CLI 已安装 openclaw doctor # 检查配置是否正常 openclaw gateway status # 确认 Gateway 正在运行(默认监听端口 18789)

两种集成方式

OpenClaw 提供两种方式集成 GitHub Copilot,根据实际使用场景选择:

方式适用场景是否需要 VS Code
内置 github-copilot 提供商大多数场景,最简便不需要
Copilot Proxy 插件已在 VS Code 中运行 Copilot Proxy,或需要通过代理路由需要(需保持运行)

方式一:内置 GitHub Copilot 提供商(推荐)

这是最简单的集成方式,使用 GitHub 的设备授权(Device Flow)获取访问令牌,无需安装 VS Code。

第一步:执行登录命令

可交互的终端中运行(不能在 CI/脚本中执行):

openclaw models auth login-github-copilot 
第二步:完成设备授权

命令执行后,终端会输出类似以下信息:

Visit: https://github.com/login/device Enter code: XXXX-XXXX Waiting for authorization... 
  1. 使用浏览器访问 https://github.com/login/device
  2. 输入终端中显示的一次性验证码
  3. 在 GitHub 页面授权 OpenClaw 访问你的 Copilot
  4. 授权完成后,保持终端开启,等待命令自动完成
注意: 请勿关闭终端,直到命令输出成功提示。
可选参数

指定自定义 Profile ID(适合管理多个 GitHub 账号):

openclaw models auth login-github-copilot --profile-id github-copilot:work 

跳过确认提示(自动接受):

openclaw models auth login-github-copilot --yes

方式二:Copilot Proxy 插件

如果你已经在 VS Code 中安装并运行了 Copilot Proxy 扩展,可以让 OpenClaw 通过该代理的 /v1 端点访问 Copilot 模型。

前提: VS Code 中的 Copilot Proxy 扩展必须处于运行状态,OpenClaw 才能正常调用。
启用插件

在 OpenClaw 配置文件中启用 copilot-proxy 插件:

{ plugins: { "copilot-proxy": { enabled: true, baseUrl: "http://localhost:<代理端口>/v1" // 替换为 Copilot Proxy 实际监听地址 } } } 

设置默认模型

登录成功后,将 GitHub Copilot 提供的模型设置为默认模型:

# 设置 GPT-4o 为主模型 openclaw models set github-copilot/gpt-4o # 或使用 GPT-4.1 openclaw models set github-copilot/gpt-4.1 

查看当前可用模型:

openclaw models list 

查看模型状态和认证信息:

openclaw models status 

配置文件示例

手动编辑配置文件(位于 ~/.openclaw/config.json5):

最简配置

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" } } } } 

配置主模型 + 备用模型(故障转移)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o", fallbacks: [ "github-copilot/gpt-4.1", "openai/gpt-4o" // 可选:其他提供商作为最终备用 ] } } } } 

指定 Profile ID(多账号场景)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" } } }, auth: { profiles: [ { id: "github-copilot:work", provider: "github-copilot" } ] } } 

配置模型允许列表(限制可用模型)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" }, models: { "github-copilot/gpt-4o": { alias: "Copilot GPT-4o" }, "github-copilot/gpt-4.1": { alias: "Copilot GPT-4.1" } } } } } 

模型管理

常用 CLI 命令速查

# 查看当前模型状态 openclaw models status # 列出所有配置的模型 openclaw models list # 列出所有可用模型(包含完整目录) openclaw models list --all# 切换主模型 openclaw models set github-copilot/gpt-4o # 添加备用模型 openclaw models fallbacks add github-copilot/gpt-4.1 # 查看备用模型列表 openclaw models fallbacks list # 删除备用模型 openclaw models fallbacks remove github-copilot/gpt-4.1 # 添加模型别名 openclaw models aliases add"copilot" github-copilot/gpt-4o 

在对话中切换模型

在 Control UI 或支持的频道中,可以使用斜杠命令临时切换模型:

/model # 打开模型选择器 /model list # 列出可用模型 /model github-copilot/gpt-4o # 切换到指定模型 /model status # 查看当前模型详细状态 

常见问题排查

1. 模型被拒绝访问(“Model rejected”)

原因: 当前 GitHub Copilot 订阅计划不支持该模型。

解决方案:

# 尝试切换到其他 Copilot 模型 openclaw models set github-copilot/gpt-4.1 # 查看订阅计划支持的模型 openclaw models list --provider github-copilot 

2. 登录命令报错"requires interactive TTY"

原因: 在非交互式终端(如 CI 流水线、SSH 无 TTY 会话)中执行了登录命令。

解决方案: 在本机的普通终端窗口中直接执行登录命令,不要通过脚本调用。

3. 命令执行后提示"openclaw: command not found"

解决方案:

# 检查全局包安装路径npm prefix -g# 确认 bin 目录在 PATH 中echo"$PATH"# 若不在 PATH,手动添加(以 zsh 为例)echo'export PATH="$(npm prefix -g)/bin:$PATH"'>> ~/.zshrc source ~/.zshrc 

4. 认证令牌过期

GitHub Copilot 的令牌会定期过期,需要重新登录:

openclaw models auth login-github-copilot 

5. 模型显示"not allowed"错误

原因: 配置了 agents.defaults.models 允许列表,但所选模型不在列表中。

解决方案: 将模型添加到允许列表,或清除允许列表:

// 在配置文件中添加该模型 { agents: { defaults: { models: { "github-copilot/gpt-4o": {} } } } } 

6. 运行诊断检查

openclaw doctor 

参考资料

资源链接
OpenClaw 官方文档docs.openclaw.ai
GitHub Copilot 集成页面docs.openclaw.ai/providers/github-copilot
OpenClaw 安装指南docs.openclaw.ai/install
快速上手docs.openclaw.ai/start/getting-started
模型 CLI 参考docs.openclaw.ai/concepts/models
模型提供商总览docs.openclaw.ai/concepts/model-providers
模型故障转移docs.openclaw.ai/concepts/model-failover
配置参考docs.openclaw.ai/gateway/configuration-reference
OpenClaw GitHub 仓库github.com/openclaw/openclaw

文档生成日期:2026-03-27 | 基于 OpenClaw 官方文档整理

Read more

宇树科技机器人核心技术

宇树科技机器人核心技术

前言 宇树科技作为全球足式/人形机器人领域的标杆企业,其技术体系覆盖消费级(Go2)、工业级(B2)、人形(G1/H1)全产品线,以“硬件自研+软件全栈+AI赋能”构建核心壁垒。本文不仅拆解宇树机器人的关键技术(单硬件、单软件、软硬件协同、AI+),还配套就业技能图谱、学习路线与工具推荐,适合机械、电子、计算机、AI领域开发者/求职者参考。 一、宇树科技机器人核心技术全景(附插图建议) 宇树的技术体系可概括为“四层金字塔结构”,从下到上实现“能运动→会运动→智能运动”的进阶: 技术层级核心定位代表技术应用价值底层硬件机器人“躯体骨架”自研伺服电机、分层计算平台、4D激光雷达保障运动性能与环境适配性全栈软件机器人“智慧大脑”MPC/WBC控制算法、SLAM感知融合、ROS2中间件实现精准控制与灵活交互软硬件协同机器人“神经中枢”实时控制闭环、

万余字详细讲述Boston Dynamics(波士顿动力)机器人进化史

万余字详细讲述Boston Dynamics(波士顿动力)机器人进化史

Boston Dynamics(波士顿动力)成立于 1992 年,源头是 MIT Leg Lab(腿式机器人实验室)。 从一开始,这家公司就不是以“产品公司”或“消费级机器人”为目标,而是一个以动力学、控制理论和仿生运动为核心的工程型公司。 1992 源起 Boston Dynamics实验室成立 第一代机器人并非单一的商业产品,而是以验证腿式移动与动态平衡为核心目标的实验性平台。以 BigDog 为代表,这一代机器人的研发目标是回答一个工程问题:在复杂、非结构化地形与外力扰动下,能否用机械与控制手段实现可靠的动态移动与姿态恢复,从而为未来在战术后勤、野外巡检等场景替换人力奠定基础。项目由 Boston Dynamics 主导、并在早期获得 DARPA 等机构资助,属于“控制与动力学验证平台”级别的工程原型。 设计哲学 * 以物理世界约束为出发点:先解决“受力、稳定与能量传递”问题,

【火】Spatial Joy 2025 全球 AR&AI 赛事:开发者要的资源、玩法、避坑攻略都在这

【火】Spatial Joy 2025 全球 AR&AI 赛事:开发者要的资源、玩法、避坑攻略都在这

Spatial Joy 2025 Rokid乐奇 全球 AR&AI 开发大赛 值不值得参加?不少参加过连续两届 Rokid乐奇 赛事的老兵,纷纷表示非常值得参加。 先说最实在的——奖金。 AR赛道分为应用和游戏两个赛道,金奖各20万人民币,而且是现金!交完税全是你自己的!这还不够,AR赛道总共设了27个奖项,据我打听到的往年数据,能正常跑进初赛的作品大概就60-70个,这意味着获奖比例相当高。 20万就封顶了吗?远远没有!亚马孙科技给使用Kiro并获奖的开发者,在原奖金基础上再加20%现金奖励! AI赛道同样设置了27个奖项,奖金从1万到5万不等,主要以智能体开发为主,支持市面上所有智能体平台的适配。也就是说,你之前做的智能体微调一下就能参赛! 更重要的是,现在正是智能眼镜行业爆发前夜。据我观察,未来2-3年将是空间计算应用落地的关键窗口期,提前布局的开发者将占据绝对先发优势。 好了,重磅消息说完,下面是我为大家整理的详细参赛指南: 先给开发者交个底:这赛事值得花时间吗? 对技术人来说,一场赛事值不值得冲,就看三点:资源给不给力、