用 OpenClaw 搭建企业微信 AI Agent:从零到自动化客服只需 30 分钟

本教程将指导您使用 OpenClaw 搭建一个企业微信 AI 客服,实现 7×24 小时自动回复。以阿里云为例,其他云服务商(如腾讯云)的流程也基本一致。

🎯 整体流程概览

  1. 准备账号:注册企业微信,并获取阿里云百炼大模型 API Key。
  2. 部署 OpenClaw:在云服务器上部署 OpenClaw 并接入大模型。
  3. 配置企业微信:创建应用或机器人,获取 CorpID、AgentID、Secret 等凭证。
  4. 打通连接:将企业微信的回调地址指向 OpenClaw 服务。
  5. 测试优化:在微信中测试对话,并通过优化知识库提升准确率。

🛠️ 一、准备工作 (约 5 分钟)

  1. 企业微信
    • 注册并认证企业微信(个人也可免费创建用于测试)。
    • 记录管理员账号,后续操作均需在管理后台进行。
  2. 阿里云账号
    • 注册并完成实名认证。
    • 开通「百炼大模型」服务,并创建一个 API Key,保存备用。
  3. 云服务器
    • 推荐配置:2核CPU、2GB内存及以上,系统盘40GB+。
    • 镜像选择:在轻量应用服务器中,搜索并选择 OpenClaw (原 Clawdbot/Moltbot) 官方镜像
    • 地域建议:选择中国香港、新加坡等免备案地域,方便外网访问。
    • 安全组:创建实例后,在安全组规则中放行 TCP 18789​ 端口。

🚀 二、部署 OpenClaw (约 10 分钟)

方式一:使用官方镜像(推荐)
  1. 登录服务器通过 SSH 工具(如 FinalShell)连接到您的云服务器。
  2. 配置环境变量执行以下命令,编辑配置文件:bashcd /opt/openclawcp .env.example .envvim .env在 .env文件中填入以下内容(API Key 替换为您的百炼 Key):envALIYUN_BAILIAN_API_KEY=你的百炼APIKeyALIYUN_BAILIAN_MODEL=qwen3-maxPORT=18789

启动服务执行以下命令启动 OpenClaw:bash

安装依赖

npm install --production

后台启动

nohup npm run start > openclaw.log 2>&1 &检查服务是否正常运行:bashcurl http://127.0.0.1:18789/health若返回 {"status":"ok"},则表示部署成功。

方式二:Docker 部署(生产推荐)

bash

docker run -d \

--name openclaw \

-p 18789:18789 \

-e ALIYUN_BAILIAN_API_KEY=你的APIKey \

-e ALIYUN_BAILIAN_MODEL=qwen3-max \

--restart always \

openclaw/openclaw:2026-stable


🏢 三、配置企业微信

方案 A:自建应用 (功能更全)
  1. 创建应用登录企业微信管理后台 → 应用管理​ → 自建应用​ → 创建应用。填写名称(如“AI 客服中心”)、上传头像并设置可见范围。
  2. 获取凭证在应用详情页,记录以下三个关键信息:
    • CorpID​ (企业 ID):位于「我的企业 → 企业信息」。
    • AgentID​ (应用 ID)
    • Secret​ (应用密钥):点击“查看”后,在企业微信客户端中复制。
  3. 设置回调进入应用详情 → 接收消息​ → 设置 API 接收
    • URLhttp://你的服务器公网IP:18789/wecom/app
    • 点击“随机获取” Token 和 EncodingAESKey,并保存。
方案 B:智能机器人 (配置简单)
  1. 创建机器人登录企业微信管理后台 → 安全与管理​ → 管理工具​ → 智能机器人​ → 创建机器人​ → API 模式创建
  2. 获取凭证填写机器人名称、简介和可见范围。点击“随机获取” Token 和 EncodingAESKey,并保存。
  3. 设置回调
    • URLhttp://你的服务器公网IP:18789/wecom/bot
    • 同样,先不要点击“创建”。

🔗 四、打通 OpenClaw 与企业微信

方式一:命令行配置(推荐)
  1. 安装插件bashopenclaw plugin install @openclaw/channel-wecom
  2. 配置参数根据您选择的方案,执行相应命令。
    • 自建应用配置bashopenclaw config set wecom.enabled trueopenclaw config set wecom.corpId 你的CorpIDopenclaw config set wecom.agentId 你的AgentIDopenclaw config set wecom.secret 你的Secretopenclaw config set wecom.token 你的Tokenopenclaw config set wecom.encodingAESKey 你的EncodingAESKey
    • 智能机器人配置bashopenclaw config set wecom.enabled trueopenclaw config set wecom.botToken 你的Tokenopenclaw config set wecom.botEncodingAESKey 你的EncodingAESKey
  3. 重启服务bashopenclaw gateway restart
方式二:Web 控制台配置
  1. 访问 http://你的服务器IP:18789/admin
  2. 进入 Channels → 企业微信
  3. 根据您选择的方案,填入对应的 CorpID、AgentID、Secret、Token、EncodingAESKey 等信息。
  4. 启用通道并保存,然后重启网关服务。

✅ 五、测试与优化

  1. 完成配置返回企业微信后台,点击之前未完成的“保存”或“创建”按钮。如果提示“已成功”,则表示打通成功。
  2. 开始对话
    • 自建应用:在企业微信客户端「工作台」找到并打开“AI 客服中心”应用。
    • 智能机器人:在「通讯录」中找到机器人并进入聊天窗口。发送消息如“你好”、“你们支持退款吗?”,测试 AI 是否回复。
  3. 优化知识库如果 AI 回答不准确,可以创建知识库文件(如 faq.md),放入常见问题与标准答案,然后同步到 OpenClaw。AI 将优先从知识库中检索答案,大幅提升准确率。
  4. 设置人工兜底在知识库或系统提示词(SOUL.md)中设定,当 AI 无法回答或用户明确要求人工时,回复“正在为您转接人工客服,请稍候…”,并通知人工客服介入。

Read more

龙虾(OpenClaw)搭配本地千问模型(零token成本)实现电脑AI助理

龙虾(OpenClaw)搭配本地千问模型(零token成本)实现电脑AI助理

前言:现在AI助手遍地都是,但要么是云端服务要花token钱,要么是功能单一只能聊天,想找一个“不花钱、能干活、保隐私”的电脑AI助理,简直比登天!直到我发现了一个神仙组合——龙虾AI(OpenClaw)+ 本地千问模型,完美解决所有痛点:零token成本、全程本地运行、能接管电脑干活,无论是办公摸鱼还是高效产出,都能轻松拿捏。 本文是纯新手向原创实操教程,全程手把手,从工具认知、环境准备,到龙虾与本地千问的联动配置,再到实战场景演示,每一步都标清重点、避开坑点,不用懂复杂代码,不用花一分钱,普通人跟着走,10分钟就能拥有专属本地AI电脑助理,从此告别云端token焦虑和隐私泄露风险! 一、先搞懂:为什么是“龙虾+本地千问”?核心优势碾压同类组合 在开始操作前,先跟大家说清楚两个核心工具的作用,以及为什么它们搭配起来是“王炸”——毕竟市面上AI工具那么多,选对组合才能少走弯路,真正实现“零成本、高效率”。 1. 两个核心工具,

依托 Amazon Bedrock 生成式 AI 能力,结合 Slack 生态与亚马逊云科技服务构建企业级图像生成 App 的全流程解析

依托 Amazon Bedrock 生成式 AI 能力,结合 Slack 生态与亚马逊云科技服务构建企业级图像生成 App 的全流程解析

依托 Amazon Bedrock 生成式 AI 能力,结合 Slack 生态与亚马逊云科技服务构建企业级图像生成 App 的全流程解析 前言 生成式 AI 技术加速渗透企业业务的当下,Slack 作为主流协作平台,与亚马逊云科技结合成为企业高效落地 AI 应用的重要方向。本文以 “企业级 Slack 图像生成助手 App” 为实践载体,聚焦 Amazon Bedrock 的生成式 AI 能力,从平台特性解析、架构方案设计,到全流程部署实操展开阐述,为企业快速搭建安全、高效、可扩展的 AI 驱动型协作应用提供清晰指引。 全新免费套餐(Free Tier 2.0) 亚马逊云科技 Free Tier 2.0

《Claude Code 落地实战:本地搭建 + 智谱 GLM-4.7 强强联手,打造最强 AI 编程助手》

《Claude Code 落地实战:本地搭建 + 智谱 GLM-4.7 强强联手,打造最强 AI 编程助手》

前言: 💡 为什么选择 Claude Code + 国产模型? * Claude Code:Anthropic 官方出品的命令行编程智能体(Agent),它拥有直接操作文件、执行终端命令、分析 git 提交记录的极高权限,比传统的 Chat 工具更贴近开发者。 * GLM-4.7:智谱 AI 的明星模型,国内适配度极高,响应速度快且性价比极高,实测在代码生成和逻辑理解上表现优异。 * CC-Switch:解决协议适配的“瑞士军刀”,让我们能以极低的成本在本地跑起这套顶级工具。 一、 环境准备:Windows 平台极速搭建 在开始之前,请确保你的系统已安装 Node.js (v18+)。 1. 提升 PowerShell 权限 为了顺利安装全局包,我们需要调整执行策略。在开始菜单搜索 PowerShell,以管理员身份运行,如图(1)

Harness Engineering:给 AI 套上缰绳的工程学(通俗易懂)

Harness Engineering:给 AI 套上缰绳的工程学(通俗易懂)

🐴 Harness Engineering:给 AI 套上缰绳的工程学 AI 写代码的速度已经超过了人类能"擦屁股"的速度。Harness Engineering,就是那根让烈马变战马的缰绳。 目录 * 🐴 Harness Engineering:给 AI 套上缰绳的工程学 * 一、前言:当 AI 开始"飙车" * 二、名词急救包——先扫盲再上路 * 🐎 Harness Engineering(驾驭工程) * 🧠 Context Engineering(上下文工程) * 🎵 Vibe Coding(氛围编程) * 🤖 Coding Agent(编码智能体) * 📋 AGENTS.md(AI 工作手册) * 🔌 MCP / ACP / A2A(