用 OpenClaw 搭建企业微信 AI Agent:从零到自动化客服只需 30 分钟

本教程将指导您使用 OpenClaw 搭建一个企业微信 AI 客服,实现 7×24 小时自动回复。以阿里云为例,其他云服务商(如腾讯云)的流程也基本一致。

🎯 整体流程概览

  1. 准备账号:注册企业微信,并获取阿里云百炼大模型 API Key。
  2. 部署 OpenClaw:在云服务器上部署 OpenClaw 并接入大模型。
  3. 配置企业微信:创建应用或机器人,获取 CorpID、AgentID、Secret 等凭证。
  4. 打通连接:将企业微信的回调地址指向 OpenClaw 服务。
  5. 测试优化:在微信中测试对话,并通过优化知识库提升准确率。

🛠️ 一、准备工作 (约 5 分钟)

  1. 企业微信
    • 注册并认证企业微信(个人也可免费创建用于测试)。
    • 记录管理员账号,后续操作均需在管理后台进行。
  2. 阿里云账号
    • 注册并完成实名认证。
    • 开通「百炼大模型」服务,并创建一个 API Key,保存备用。
  3. 云服务器
    • 推荐配置:2核CPU、2GB内存及以上,系统盘40GB+。
    • 镜像选择:在轻量应用服务器中,搜索并选择 OpenClaw (原 Clawdbot/Moltbot) 官方镜像
    • 地域建议:选择中国香港、新加坡等免备案地域,方便外网访问。
    • 安全组:创建实例后,在安全组规则中放行 TCP 18789​ 端口。

🚀 二、部署 OpenClaw (约 10 分钟)

方式一:使用官方镜像(推荐)
  1. 登录服务器通过 SSH 工具(如 FinalShell)连接到您的云服务器。
  2. 配置环境变量执行以下命令,编辑配置文件:bashcd /opt/openclawcp .env.example .envvim .env在 .env文件中填入以下内容(API Key 替换为您的百炼 Key):envALIYUN_BAILIAN_API_KEY=你的百炼APIKeyALIYUN_BAILIAN_MODEL=qwen3-maxPORT=18789

启动服务执行以下命令启动 OpenClaw:bash

安装依赖

npm install --production

后台启动

nohup npm run start > openclaw.log 2>&1 &检查服务是否正常运行:bashcurl http://127.0.0.1:18789/health若返回 {"status":"ok"},则表示部署成功。

方式二:Docker 部署(生产推荐)

bash

docker run -d \

--name openclaw \

-p 18789:18789 \

-e ALIYUN_BAILIAN_API_KEY=你的APIKey \

-e ALIYUN_BAILIAN_MODEL=qwen3-max \

--restart always \

openclaw/openclaw:2026-stable


🏢 三、配置企业微信

方案 A:自建应用 (功能更全)
  1. 创建应用登录企业微信管理后台 → 应用管理​ → 自建应用​ → 创建应用。填写名称(如“AI 客服中心”)、上传头像并设置可见范围。
  2. 获取凭证在应用详情页,记录以下三个关键信息:
    • CorpID​ (企业 ID):位于「我的企业 → 企业信息」。
    • AgentID​ (应用 ID)
    • Secret​ (应用密钥):点击“查看”后,在企业微信客户端中复制。
  3. 设置回调进入应用详情 → 接收消息​ → 设置 API 接收
    • URLhttp://你的服务器公网IP:18789/wecom/app
    • 点击“随机获取” Token 和 EncodingAESKey,并保存。
方案 B:智能机器人 (配置简单)
  1. 创建机器人登录企业微信管理后台 → 安全与管理​ → 管理工具​ → 智能机器人​ → 创建机器人​ → API 模式创建
  2. 获取凭证填写机器人名称、简介和可见范围。点击“随机获取” Token 和 EncodingAESKey,并保存。
  3. 设置回调
    • URLhttp://你的服务器公网IP:18789/wecom/bot
    • 同样,先不要点击“创建”。

🔗 四、打通 OpenClaw 与企业微信

方式一:命令行配置(推荐)
  1. 安装插件bashopenclaw plugin install @openclaw/channel-wecom
  2. 配置参数根据您选择的方案,执行相应命令。
    • 自建应用配置bashopenclaw config set wecom.enabled trueopenclaw config set wecom.corpId 你的CorpIDopenclaw config set wecom.agentId 你的AgentIDopenclaw config set wecom.secret 你的Secretopenclaw config set wecom.token 你的Tokenopenclaw config set wecom.encodingAESKey 你的EncodingAESKey
    • 智能机器人配置bashopenclaw config set wecom.enabled trueopenclaw config set wecom.botToken 你的Tokenopenclaw config set wecom.botEncodingAESKey 你的EncodingAESKey
  3. 重启服务bashopenclaw gateway restart
方式二:Web 控制台配置
  1. 访问 http://你的服务器IP:18789/admin
  2. 进入 Channels → 企业微信
  3. 根据您选择的方案,填入对应的 CorpID、AgentID、Secret、Token、EncodingAESKey 等信息。
  4. 启用通道并保存,然后重启网关服务。

✅ 五、测试与优化

  1. 完成配置返回企业微信后台,点击之前未完成的“保存”或“创建”按钮。如果提示“已成功”,则表示打通成功。
  2. 开始对话
    • 自建应用:在企业微信客户端「工作台」找到并打开“AI 客服中心”应用。
    • 智能机器人:在「通讯录」中找到机器人并进入聊天窗口。发送消息如“你好”、“你们支持退款吗?”,测试 AI 是否回复。
  3. 优化知识库如果 AI 回答不准确,可以创建知识库文件(如 faq.md),放入常见问题与标准答案,然后同步到 OpenClaw。AI 将优先从知识库中检索答案,大幅提升准确率。
  4. 设置人工兜底在知识库或系统提示词(SOUL.md)中设定,当 AI 无法回答或用户明确要求人工时,回复“正在为您转接人工客服,请稍候…”,并通知人工客服介入。

Read more

AI绘画关键词网站效率提升实战:从数据预处理到模型加速

快速体验 在开始今天关于 AI绘画关键词网站效率提升实战:从数据预处理到模型加速 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AI绘画关键词网站效率提升实战:从数据预处理到模型加速 最近在开发一个AI绘画关键词推荐网站时,遇到了不少性能瓶颈。用户输入描述词后,系统需要快速返回最相关的绘画风格关键词,但最初的版本响应慢、推荐结果也不够精准。经过一系列优化,最终将查询响应时间降低了60%。下面分享整个优化过程的关键技术和实战经验。 痛点分析:

什么是Agentic AI?Agentic AI 与传统 AIGC 有什么区别?

什么是Agentic AI?Agentic AI 与传统 AIGC 有什么区别?

什么是 Agentic AI?Agentic AI 与传统 AIGC 有什么区别? 1. 引言 近年来,人工智能(AI)技术飞速发展,其中以生成式 AI(AIGC,Artificial Intelligence Generated Content)和 Agentic AI(智能代理 AI)最为热门。AIGC 通过深度学习模型生成文本、图像、视频等内容,而 Agentic AI 则更进一步,能够自主感知、决策并执行任务。那么,Agentic AI 究竟是什么?它与传统的 AIGC 有何不同?在本文中,我们将深入探讨 Agentic AI 的概念、技术原理、

CosyVoice环境安装报错:安装openai-whisper时出现ModuleNotFoundError: No module named ‘pkg_resources‘的原因

先说如何解决,我个人采用源码安装,安装时禁用构建隔离: git clone https://github.com/openai/whisper.git cd whisper git checkout v20231117 pip install -e . --no-build-isolation 再说该问题产生的原因,下面是大D老师的回答,自行参考。 太棒了!你找到了正确的解决方案。让我详细解释为什么会出现这个问题,以及为什么 --no-build-isolation 能解决它。 🔍 问题根源分析 问题的关键在于 PEP 517/518 构建隔离机制和你的 setup.py 实现方式。 1. 构建隔离机制 (Build Isolation) 的工作原理 当你执行 pip install -e .(不带 --no-build-isolation)时,

AIGC时代大模型幻觉问题深度治理:技术体系、工程实践与未来演进

AIGC时代大模型幻觉问题深度治理:技术体系、工程实践与未来演进

文章目录 * 一、幻觉问题的多维度透视与产业冲击 * 1.1 幻觉现象的本质特征与量化评估 * 1.2 产业级影响案例分析 * 二、幻觉问题的根源性技术解剖 * 2.1 数据污染的复合效应 * 2.1.1 噪声数据类型学分析 * 2.1.2 数据清洗技术实现 * 2.2 模型架构的先天缺陷 * 2.2.1 注意力机制的局限性 * 2.2.2 解码策略的博弈分析 * 2.3 上下文处理的边界效应 * 三、多层次解决方案体系构建 * 3.1 数据治理体系升级 * 3.1.1 动态数据质量监控 * 3.1.2 领域知识图谱构建 * 3.