Docker 部署 OpenClaw 踩坑实录:Web UI 访问、飞书配对及自定义模型配置

最近在使用 Docker 部署 OpenClaw 时遇到了一些典型的环境与配置问题。为了方便大家排查,我将这几个核心问题的表现、解决思路以及如何接入公司自己配置的大模型节点进行了梳理。


一、问题一:安装成功但 Web UI 无法访问

1. 现象描述

  • 终端提示安装成功,但在浏览器中访问http://127.0.0.1:18789 时,页面提示连接被重置。
  • 使用具体的局域网 IP(如192.168.5.30:18789)访问时,同样提示无法连接或无法访问此网站。
alt

2. 原因分析

  • 在排除了代理服务器和系统防火墙的干扰后,根本原因在于 OpenClaw 核心网关的跨域访问(CORS)安全机制。
  • 系统默认包含白名单配置,它的作用是告诉 OpenClaw 的核心网关:“只有从这些特定的网址(域名或IP)打开的控制台网页,才被允许连接我并下发控制指令”。

3. 解决方案

修改 OpenClaw 的配置文件~/.opneclaw/openclaw.json,在gateway.controlUi.allowedOrigins 节点中加上* 作为通配符(或添加你实际访问的 URL)。具体配置参考如下:

"gateway": {
  "port": 18789,
  "mode": "local",
  "bind": "lan",
  "controlUi": {
    "allowedOrigins": [
      "*",
    ],
    "dangerouslyDisableDeviceAuth": true
  }
}


二、问题二:飞书机器人配对失败与配对码刷新

1. 现象描述

  • 在系统内设置了飞书 Channel 后,通过飞书机器人发送消息没反应,系统提示未配对,并给了一个配对码。
  • 给飞书发送多次消息,配对码会不断发生改变。
alt

2. 解决方案

由于多次发消息导致配对码不断刷新,我们需要通过后台 CLI 指令直接查看并抓取最新、最准确的配对请求进行手动授权。

  1. 查看最新的飞书配对请求:执行docker compose run --rm openclaw-cli pairing list feishu 命令查看当前的配对列表。
alt
  1. 获取正确配对码:在输出的表格中,找到最新的配对码(例如:ZLX3M556)。
  2. 执行授权配对:拿到正确的配对码后,执行docker compose run --rm openclaw-cli pairing approve feishu ZLX3M556 命令通过审批。当日志输出类似Approved feishu sender ou_... 后,即代表授权成功。
alt

三、进阶配置:接入公司自行配置的大模型

OpenClaw 支持灵活地接入公司自己配置的大模型节点。配置 Agent 的方法同样是修改~/.openclaw/openclaw.json 文件。

以下是接入公司自行配置的、提供 MiniMax 模型的高速自定义节点的配置示例:

{
  "agents": {
    "defaults": {
      "model": "yuxiaor/MiniMax-M2.7-highspeed"
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "yuxiaor": {
        "api": "openai-completions",
        "baseUrl": "http://xxxxxxxxxxx/v1",
        "apiKey": "your key",
        "models": [
          { "id": "MiniMax-M2.7-highspeed", "name": "MiniMax 2.7 highspeed" }
        ]
      }
    }
  }
}

配置解析:

  • 在models.providers 节点下自定义公司自行配置的节点名称(如yuxiaor),并将其 API 格式指定为兼容性最好的openai-completions。
  • 填入公司配置节点提供的baseUrl和对应的apiKey。
  • 在agents.defaults.model 中,将默认模型指向刚才声明的节点与模型名称(如yuxiaor/MiniMax-M2.7-highspeed)。这样配置并重启后,OpenClaw 默认就会调用公司配置的模型来进行回复了。
alt

本文由 mdnice 多平台发布

Read more

Ops-CV库介绍:赋能AIGC多模态视觉生成的加速利器

Ops-CV库介绍:赋能AIGC多模态视觉生成的加速利器

前言 Ops-CV是昇腾CANN生态专属的视觉算子库,核心定位是为视觉处理任务提供高效、轻量化的昇腾NPU原生加速能力,其不仅覆盖传统计算机视觉全流程,更深度适配当前AIGC多模态生成场景(图像生成、图文联动生成、AIGC内容优化等),成为连接AIGC模型与昇腾硬件的核心桥梁,解决AIGC视觉生成中“耗时高、适配难、算力利用率低”的核心痛点,助力AIGC多模态应用快速落地。 在AIGC多模态技术快速迭代的当下,图像生成(如Stable Diffusion等潜在扩散模型)、图文联动生成已成为主流应用方向,但这类场景的视觉处理环节(生成图像预处理、特征对齐、内容优化、端侧适配)往往面临瓶颈——AIGC模型生成的图像需经过一系列视觉优化才能适配下游场景,常规视觉库无法高效利用昇腾NPU算力,导致生成-优化全流程延迟偏高,且难以适配边缘端低功耗、低内存的部署需求,而ops-cv的出现恰好填补了这一空白。 一、Ops-CV核心定位与AIGC适配基础 Ops-CV并非通用视觉库,而是深度绑定昇腾CANN生态、专为硬件加速设计的视觉算子集合,其核心能力围绕“视觉处理全流程加速”展开,涵盖图

copilot学生认证2026-github copilot学生认证(手把手教会)

copilot学生认证2026-github copilot学生认证(手把手教会)

1.前言 博主在24年的时候发过一篇copilot认证成功的帖子,当时也是领到了一年的pro 文章链接:github copilot学生认证(手把手一小时成功)-ZEEKLOG博客 如今26年了,copilot的申请增加了一年的时间,博主也进入了研究生生涯,前段时间也是再次进行了申请,现在已经用上了,Pro 版直接解锁无限制基础功能 + 海量高级模型,我的感受是:真香!:   既然官方的申请有变化,咱们教程也得与时俱进,下面就开始手把手教大家如何进行申请copilot学生会员。 2.完善 GitHub 账号基础配置 在Emails里面加入你对应学校的教育邮箱(以edu.cn结尾),打开教育邮箱点击GitHub发送的验证邮件链接,即可完成邮箱认证 3.Github学生认证 完成上述步骤后,打开学生认证申请链接,依旧还是在设置里面,这里也可以用手机操作,因为上传证明材料用手机拍照更方便: 选择身份为学生,下滑填写学校信息,输入学校的英文,最后选择自己的学校教育邮箱,点击continue(还得分享位置) 接下来就是上传证明材料: * 可以使用手机摄像头拍摄,证件

ManiSkill机器人模拟环境:从零开始的完整安装与实战指南

ManiSkill机器人模拟环境:从零开始的完整安装与实战指南 【免费下载链接】ManiSkill 项目地址: https://gitcode.com/GitHub_Trending/ma/ManiSkill 在机器人学习领域,拥有一个功能强大且易于使用的模拟环境至关重要。ManiSkill作为业界领先的机器人操作模拟平台,为研究人员和开发者提供了丰富的任务场景和硬件支持。本文将带您深入了解如何在不同系统上快速安装和配置ManiSkill,并解决实际使用中可能遇到的各种问题。 为什么选择ManiSkill? 在深入安装细节之前,让我们先了解ManiSkill的核心优势: * 多任务场景覆盖:从简单的物体抓取到复杂的家居环境操作 * 多样化机器人支持:超过30种不同类型的机器人硬件 * 物理模拟精度:基于SAPIEN引擎的高质量物理仿真 * GPU加速支持:大幅提升训练和推理效率 环境准备:系统要求详解 在开始安装前,请确保您的系统满足以下基本要求: 系统类型最低配置推荐配置Ubuntu 18.04+4GB RAM, 2GB GPU16GB RAM, 8G

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在编译llama.cpp时遭遇过CUDA相关的"nvcc not found"错误?是否尝试启用GPU加速却始终无法识别显卡?本文将系统梳理llama.cpp项目中CUDA编译的常见问题,提供从环境配置到高级优化的完整解决方案,让你的NVIDIA显卡充分释放AI计算潜能。 CUDA编译基础与环境检查 llama.cpp通过CUDA后端实现NVIDIA GPU加速,其核心配置位于CMakeLists.txt构建系统中。官方推荐的基础编译命令看似简单: cmake -B build -DGGML_CUDA=ON