本地服务器用 OpenClaw + Open WebUI 搭建企业多部门 AI 平台(附 Docker 避坑指南)

本地服务器用 OpenClaw + Open WebUI 搭建企业多部门 AI 平台(附 Docker 避坑指南)

引言:

最近在尝试使用 OpenClaw,发现这个 AI 个人助理框架非常有意思。于是团队里就有人提出:能不能为公司的多个部门,分别搭建专属的 OpenClaw 服务器?

诚然,现在有钉钉、飞书等成熟的办公软件可以接入 AI,但对于一些尚未全面普及此类协作软件的企业(或者需要绝对私有化部署的团队)来说,独立搭建一套内部 AI 门户依然是刚需。

起初,我们考虑直接让大家通过 OpenClaw 自带的 Web 界面进行跨电脑访问。但实操后发现这存在致命缺陷:

  1. 权限越界:自带的 Web 端拥有底层的配置编辑权限,暴露给普通员工极其不安全。
  2. 无法溯源:多终端共用一个 Web 界面,根本无法追溯对话是由谁发起的。
  3. 缺乏隔离:无法按部门精细化分配 API 额度或限制特定部门只能访问特定的 OpenClaw 节点,无法实现业务隔离。

为了解决这些痛点,我们最终确定了这套架构方案:前端使用 Open WebUI 统一接管用户登录与权限分发,后端通过 API 挂载多个互不干扰的 OpenClaw 容器。

部署环境: Ubuntu 系统

核心工具: Docker, Docker Compose

第一步:搭建 Open WebUI 统一前端 (用户控制台)

在这一步,我们需要先拉起 Open WebUI 容器。它将作为整个企业 AI 平台的“门面”,负责员工账号注册、鉴权以及对话界面的展示。

(由于该工具的搭建非常成熟,此处不过多赘述。具体安装步骤与 Docker 运行指令,请参考官方文档:https://docs.openwebui.com/

搭建完成后,你将获得一个支持多用户管理的 ChatGPT 风格界面。接下来,我们为它注入“灵魂”。

第二步:初始化并部署 OpenClaw 多节点网关 (核心后端)

我们需要从官方 GitHub 拉取源码,并使用其提供的 docker-setup.sh 脚本来进行初始化。

但在直接执行脚本前,有几个极易踩坑的细节需要提前优化(特别是国内网络环境和多节点共存问题):

细节 1:解决 Docker 构建时的网络超时 (Connect Timeout)

由于 Docker 构建时处于隔离网络,经常会卡死在 pnpm install 阶段。 在拉取源码后,先打开文件夹内的 Dockerfile,在 USER node 这一行的下方,手动注入淘宝镜像源:

Dockerfile

USER node # 注入国内镜像源加速依赖下载 ENV COREPACK_NPM_REGISTRY=https://registry.npmmirror.com ENV npm_config_registry=https://registry.npmmirror.com RUN pnpm install --frozen-lockfile

同时,打开 docker-setup.sh 脚本,在底部的 docker build \ 后面,加上 --network host \ 参数,让容器构建时借用宿主机网络。

细节 2:物理机目录权限交接 (防止 EACCES 报错)

为了实现部门隔离,我们需要把不同部门的配置挂载到不同的文件夹中。但在挂载前,必须将宿主机文件夹的权限移交给容器内的 node 用户(UID 1000):

Bash

# 假设我们先为研发部 (rd-dept) 创建专属目录 mkdir -p ~/openclaw-cluster/rd-dept sudo chown -R 1000:1000 ~/openclaw-cluster/rd-dept
细节 3:执行终极多节点部署指令 (防冲突防覆盖)

官方默认脚本容易导致网关 (Gateway) 和桥接 (Bridge) 端口冲突,且二次运行会覆盖旧容器。我们需要通过环境变量赋予它独立的“身份证”。

在 OpenClaw 源码目录下,执行以下长命令启动【研发部专属节点】:

Bash

sudo OPENCLAW_GATEWAY_PORT=18776 \ OPENCLAW_BRIDGE_PORT=18777 \ OPENCLAW_CONFIG_DIR=$HOME/openclaw-cluster/rd-dept \ OPENCLAW_WORKSPACE_DIR=$HOME/openclaw-cluster/rd-dept/workspace \ COMPOSE_PROJECT_NAME=openclaw-rd \ ./docker-setup.sh

避坑指南:

  • 交互引导中,遇到 Gateway bind 选项时,务必选择 LAN,否则后续 Open WebUI 无法跨容器连接。
  • 如果需要再给【运营部】建一个节点,只需把上面命令中的端口(例如改为 18770/18771)、目录和 PROJECT_NAME 改掉,再运行一次即可,完美实现物理隔离!

第三步:修改网关配置,开启 OpenAI 兼容接口 (Chat Completions)

部署完节点后,默认情况下 OpenClaw 的网关服务可能并没有显式开启标准的 HTTP API 通道。为了让 Open WebUI 能够顺畅地与它对话,我们需要让 OpenClaw 充当一个“OpenAI 兼容服务器”。

我们需要手动修改各个部门节点下的配置文件(例如我们刚才为研发部创建的 ~/openclaw-cluster/rd-dept/config.json)。

使用文本编辑器(如 nanovim)打开该配置文件,向下滚动找到 "gateway" 属性块。 避坑细节: 在很多默认生成的配置中,gateway 下方是没有 http 这个属性的。我们需要手动把这块代码补进去,开启对话补全端点:

JSON

{ "gateway": { "http": { "endpoints": { "chatCompletions": { "enabled": true } } } // 注意:不要漏掉 json 的逗号和括号层级 } }

(保存并退出后,切记使用 sudo docker compose -p openclaw-rd restart 重启一下该节点的容器,让新配置生效。)

提取部门专属“钥匙” (Token)

配置改完后,我们要把该节点的 API Token 提取出来,这相当于 Open WebUI 敲开该部门大门的“通行证”。

第四步:在 Open WebUI 中接入网关并分配权限 (终极联调)

当我们把各个部门的 OpenClaw 节点都跑起来,并拿到对应的 API Token 后,就到了“万剑归宗”的最后一步:将它们统一接入前端面板。

1. 进入外部连接设置 使用管理员账户登录 Open WebUI,点击右上角头像进入 管理员面板 (Admin Panel),在左侧菜单选择 设置 (Settings),然后点击 外部连接 (Connections)

2. 添加并配置 OpenAI 接口 在“OpenAI 接口”模块,点击“添加连接”(或编辑现有连接),严格按照以下格式进行填写(参考配图):

  • URL (API 地址):填入 http://host.docker.internal:你的端口号/v1
    • 避坑提醒: 这里的端口号必须是你刚才为该部门分配的 Gateway 端口(例如研发部是 18776,配图中演示的是默认的 18789)。切记,URL 结尾只需要到 /v1,绝对不要画蛇添足加上 /chat/completions
  • 认证方式 (密钥/Bearer):将你在第三步中 gateway.json 里提取出的超长 Token 粘贴到这里。
  • HTTP 标头 (可选但极度推荐):填入 {"x-openclaw-agent-id": "main"}。这行代码的作用是精准唤醒 OpenClaw 中名为 "main" 的主智能体。

3. 测试并保存 填写完毕后,点击右下角的保存。如果配置无误,URL 右侧的刷新按钮旁会亮起一个绿色的开关标志,代表打通成功!

4. 部门级隔离与权限分发 (RBAC) 重复上述步骤,你可以把【研发部】、【运营部】等多个节点的 API 全部添加进来。 接着,进入 WebUI 的 工作区 (Workspace) -> 模型 (Models),利用刚接入的不同 API 接口,创建对应的专署大模型。最后,通过系统自带的用户组(Groups)权限管理,设定“研发部模型仅研发员工账号可见”。

至此,一个数据物理隔离、权限精准管控、对话可查可溯源的企业级多部门 AI 平台,就在你的服务器上彻底落成了!

Read more

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

这篇是我自己的实战复盘:从 OAuth 报错、模型没切过去,到最终把 OpenClaw 稳定跑在 openai-codex/gpt-5.3-codex 上,并通过飞书远程使用。 先说结论 如果你也在找「便宜 + 强 + 可控」的方案,我现在这套组合非常能打: * OpenClaw 负责 Agent 编排(工具、文件、会话、渠道) * OpenAI Codex 5.3 负责核心编码能力 * Feishu 作为消息入口(随时远程下指令) * 本地 Workspace 放在 G:\claw,项目资产可控 这套的性价比点在于: 1. 不需要重搭一整套复杂平台 2. Codex 5.3 编码质量明显高于普通通用模型

内网穿透的应用-随时随地用 OpenClaw!打造你的专属随身 AI

内网穿透的应用-随时随地用 OpenClaw!打造你的专属随身 AI

前言 如果你已经完成了 OpenClaw 的部署,却还只局限于 “在家用电脑访问”,那真的太可惜了。这款拥有 230K + 星标的神级项目,最大的亮点就是 “本地运行、数据私有”,但局域网的限制,却让它的实用性大打折扣 —— 试想一下,当你在公司加班,需要用 OpenClaw 帮忙写一段代码、分析一份报告,却因为无法访问家里的电脑而束手无策;当你外出旅行,想让 AI 生成一份旅行攻略,却只能等回到家才能操作。这样的 OpenClaw,显然没有发挥出它应有的价值。 我在使用 OpenClaw 的过程中,也曾被这个问题困扰许久。直到接触到内网穿透工具,才彻底解决了这个痛点。不同于传统的端口映射,无需修改路由器设置,无需公网 IP,只需简单几步安装配置,就能把本地的 OpenClaw 服务映射到公网。这意味着,无论你身处何地,只要有网络,手机、平板、笔记本都能轻松连接到家里的

大模型大比对:2026主流AI大模型全方位横评与选型指南

大模型大比对:2026主流AI大模型全方位横评与选型指南

引言:AI大模型时代,选对模型比用好模型更重要 步入2026年,AI大模型行业早已告别野蛮生长,进入精细化、场景化、差异化竞争的新阶段。从海外OpenAI、Google、Anthropic三巨头领跑,到国内通义千问、智谱GLM、Kimi、文心一言、豆包等模型强势崛起,市面上可供选择的大模型数量繁多,性能、价格、擅长领域各有千秋。对于普通用户、职场人、开发者以及企业而言,面对琳琅满目的AI产品,盲目跟风选择往往会造成效率浪费和成本损耗,只有摸清各大模型的核心优势、短板与适用场景,才能精准匹配需求,让AI真正成为高效助手。 本文精选海内外10款主流大模型,涵盖头部闭源商用模型、高性价比国产模型、开源标杆模型,从核心参数、文本创作、逻辑推理、代码能力、多模态表现、长文本处理、使用成本、隐私合规八大维度展开全方位对比,深入剖析各模型差异,同时给出不同场景下的选型建议,助力读者找到最适合自己的AI大模型。 一、参评大模型一览:覆盖海内外主流选手 本次对比选取当前市场渗透率高、用户口碑好、技术实力领先的10款大模型,

猫头虎AI赠书第11期赠书活动:《人人都是AI程序员:TRAE+Cursor从0到1全栈实战》

猫头虎AI赠书第11期赠书活动:《人人都是AI程序员:TRAE+Cursor从0到1全栈实战》

猫头虎AI赠书第11期赠书活动:《人人都是AI程序员:TRAE+Cursor从0到1全栈实战》 📌摘要 🚀大消息来啦!猫头虎AI赠书第11期火热启动🔥!这次,我为大家精选了《人人都是AI程序员:TRAE+Cursor从0到1全栈实战 》📚。想要免费拿到这本书?简单到不能再简单:在文章下方留言 "我要学习AI编程! !!" 💬。3月30日,我将为大家挑选出②位幸运读者🎁,并在评论区与朋友圈公布!手里还有宝贵的源代码,等你来夺🌈!赶快行动起来,机会难得! 📢引言 亲爱的朋友们,大家好!👋是我,猫头虎博主!今天,我为大家带来了猫头虎AI赠书第11期的特别惊喜🎊!这次我将赠送的是一本精心挑选的 《人人都是AI程序员:TRAE+Cursor从0到1全栈实战》 🌟。这本书内容丰富,无论你是新手还是老鸟,都能找到属于你的知识宝藏🔍。希望大家能喜欢这个小惊喜,和我一起分享这场编程的盛宴!🥳 文章目录 * 猫头虎AI赠书第11期赠书活动:《人人都是AI程序员:TRAE+Cursor从0到1全栈实战》 * 📖关于这本书 * 为什么选择这本书? 🤔