用 OpenClaw 搭建企业微信 AI Agent:从零到自动化客服只需 30 分钟

本教程将指导您使用 OpenClaw 搭建一个企业微信 AI 客服,实现 7×24 小时自动回复。以阿里云为例,其他云服务商(如腾讯云)的流程也基本一致。

🎯 整体流程概览

  1. 准备账号:注册企业微信,并获取阿里云百炼大模型 API Key。
  2. 部署 OpenClaw:在云服务器上部署 OpenClaw 并接入大模型。
  3. 配置企业微信:创建应用或机器人,获取 CorpID、AgentID、Secret 等凭证。
  4. 打通连接:将企业微信的回调地址指向 OpenClaw 服务。
  5. 测试优化:在微信中测试对话,并通过优化知识库提升准确率。

🛠️ 一、准备工作 (约 5 分钟)

  1. 企业微信
    • 注册并认证企业微信(个人也可免费创建用于测试)。
    • 记录管理员账号,后续操作均需在管理后台进行。
  2. 阿里云账号
    • 注册并完成实名认证。
    • 开通「百炼大模型」服务,并创建一个 API Key,保存备用。
  3. 云服务器
    • 推荐配置:2核CPU、2GB内存及以上,系统盘40GB+。
    • 镜像选择:在轻量应用服务器中,搜索并选择 OpenClaw (原 Clawdbot/Moltbot) 官方镜像
    • 地域建议:选择中国香港、新加坡等免备案地域,方便外网访问。
    • 安全组:创建实例后,在安全组规则中放行 TCP 18789​ 端口。

🚀 二、部署 OpenClaw (约 10 分钟)

方式一:使用官方镜像(推荐)
  1. 登录服务器通过 SSH 工具(如 FinalShell)连接到您的云服务器。
  2. 配置环境变量执行以下命令,编辑配置文件:bashcd /opt/openclawcp .env.example .envvim .env在 .env文件中填入以下内容(API Key 替换为您的百炼 Key):envALIYUN_BAILIAN_API_KEY=你的百炼APIKeyALIYUN_BAILIAN_MODEL=qwen3-maxPORT=18789

启动服务执行以下命令启动 OpenClaw:bash

安装依赖

npm install --production

后台启动

nohup npm run start > openclaw.log 2>&1 &检查服务是否正常运行:bashcurl http://127.0.0.1:18789/health若返回 {"status":"ok"},则表示部署成功。

方式二:Docker 部署(生产推荐)

bash

docker run -d \

--name openclaw \

-p 18789:18789 \

-e ALIYUN_BAILIAN_API_KEY=你的APIKey \

-e ALIYUN_BAILIAN_MODEL=qwen3-max \

--restart always \

openclaw/openclaw:2026-stable


🏢 三、配置企业微信

方案 A:自建应用 (功能更全)
  1. 创建应用登录企业微信管理后台 → 应用管理​ → 自建应用​ → 创建应用。填写名称(如“AI 客服中心”)、上传头像并设置可见范围。
  2. 获取凭证在应用详情页,记录以下三个关键信息:
    • CorpID​ (企业 ID):位于「我的企业 → 企业信息」。
    • AgentID​ (应用 ID)
    • Secret​ (应用密钥):点击“查看”后,在企业微信客户端中复制。
  3. 设置回调进入应用详情 → 接收消息​ → 设置 API 接收
    • URLhttp://你的服务器公网IP:18789/wecom/app
    • 点击“随机获取” Token 和 EncodingAESKey,并保存。
方案 B:智能机器人 (配置简单)
  1. 创建机器人登录企业微信管理后台 → 安全与管理​ → 管理工具​ → 智能机器人​ → 创建机器人​ → API 模式创建
  2. 获取凭证填写机器人名称、简介和可见范围。点击“随机获取” Token 和 EncodingAESKey,并保存。
  3. 设置回调
    • URLhttp://你的服务器公网IP:18789/wecom/bot
    • 同样,先不要点击“创建”。

🔗 四、打通 OpenClaw 与企业微信

方式一:命令行配置(推荐)
  1. 安装插件bashopenclaw plugin install @openclaw/channel-wecom
  2. 配置参数根据您选择的方案,执行相应命令。
    • 自建应用配置bashopenclaw config set wecom.enabled trueopenclaw config set wecom.corpId 你的CorpIDopenclaw config set wecom.agentId 你的AgentIDopenclaw config set wecom.secret 你的Secretopenclaw config set wecom.token 你的Tokenopenclaw config set wecom.encodingAESKey 你的EncodingAESKey
    • 智能机器人配置bashopenclaw config set wecom.enabled trueopenclaw config set wecom.botToken 你的Tokenopenclaw config set wecom.botEncodingAESKey 你的EncodingAESKey
  3. 重启服务bashopenclaw gateway restart
方式二:Web 控制台配置
  1. 访问 http://你的服务器IP:18789/admin
  2. 进入 Channels → 企业微信
  3. 根据您选择的方案,填入对应的 CorpID、AgentID、Secret、Token、EncodingAESKey 等信息。
  4. 启用通道并保存,然后重启网关服务。

✅ 五、测试与优化

  1. 完成配置返回企业微信后台,点击之前未完成的“保存”或“创建”按钮。如果提示“已成功”,则表示打通成功。
  2. 开始对话
    • 自建应用:在企业微信客户端「工作台」找到并打开“AI 客服中心”应用。
    • 智能机器人:在「通讯录」中找到机器人并进入聊天窗口。发送消息如“你好”、“你们支持退款吗?”,测试 AI 是否回复。
  3. 优化知识库如果 AI 回答不准确,可以创建知识库文件(如 faq.md),放入常见问题与标准答案,然后同步到 OpenClaw。AI 将优先从知识库中检索答案,大幅提升准确率。
  4. 设置人工兜底在知识库或系统提示词(SOUL.md)中设定,当 AI 无法回答或用户明确要求人工时,回复“正在为您转接人工客服,请稍候…”,并通知人工客服介入。

Read more

copilot在wsl中无法工作

copilot在wsl中无法工作

copilot 在 wsl 中无法工作——vscode remote develop 代理设置 通过本文,你可以了解: 1. 如何解决 copilot 在 wsl 中无法使用的问题 2. wsl和宿主机之间的网络通信 3. vscode 的 remote develop 代理设置 问题表现 如果你有以下问题之一: 1. 对话没有输出 2. 显示 fetch failed 3. 模型名称不显示 问题分析 查看 copilot chat 的 output 显示: 如果显示 proxies 相关问题,可以确定是 WSL 中运行的 vscode 调用了宿主机的 proxy

告别Midjourney付费!Qwen-Image-2512免费本地部署实战

告别Midjourney付费!Qwen-Image-2512免费本地部署实战 1. 写在前面:为什么你需要关注 Qwen-Image-2512 近年来,AI 图像生成技术飞速发展,从 DALL·E 到 Midjourney,再到 Stable Diffusion,每一次突破都让创意工作者眼前一亮。然而,大多数高性能模型要么闭源、要么收费,使用门槛高,且存在隐私泄露风险。 2025年底,阿里通义实验室开源了 Qwen-Image-2512 ——一款支持高精度文生图、具备卓越人物与自然场景还原能力的先进模型。它不仅在多个权威评测中超越同类开源方案,甚至在真实感、细节刻画和中文理解上媲美主流商业产品。 更关键的是:完全免费、可本地部署、无限次生成、支持中文提示词。 本文将基于 Qwen-Image-2512-ComfyUI 镜像,带你完成从零到出图的完整实践流程。无论你是设计师、内容创作者还是AI爱好者,都能通过本教程快速搭建属于自己的“私人绘图工作站”。 2. Qwen-Image-2512 的核心优势解析 2.1 真实感大幅提升,

GitHub Copilot Token告急?5招高效省流策略与Claude模型替代方案

1. GitHub Copilot Token告急?先搞清楚为什么不够用 最近不少开发者都在抱怨,GitHub Copilot的token消耗速度比预想的快得多。明明月初刚充值,不到月底就提示配额不足,被迫切换到效率较低的基础模型。这种情况我遇到过不止一次,经过反复测试发现主要有这几个原因: 首先是Agent模式的过度使用。当你在VSCode中开启Agent模式后,Copilot会进入"自动驾驶"状态,它会不断尝试各种解决方案,有时会在同一个问题上反复试错。我实测过一个简单的函数重构任务,如果全程交给Agent处理,消耗的token量是手动指导的3-5倍。 其次是上下文管理不当。Copilot每次请求都会携带当前打开的文件和聊天历史作为上下文。有次我忘记关闭一个200行的测试文件,结果接下来所有代码补全都带着这个冗余上下文,token消耗直接翻倍。后来我发现,保持工作区整洁能节省至少30%的token。 还有一个容易被忽视的问题是模型选择。默认的Claude Sonnet虽然效果不错,但它的token成本是Haiku模型的3倍。对于日常的代码补全和简单重构,切换到Haiku几乎

Windows环境本地大模型工具链安装教程:Ollama + llama.cpp + LLaMA Factory

Windows 11 本地大模型工具链终极教程:Ollama + llama.cpp + LLaMA Factory 本教程将指导你在 Windows 11 系统上,将 Ollama、llama.cpp 和 LLaMA Factory 三个工具统一安装到 E 盘,并实现 GPU 加速、数据集配置和一键启动。所有步骤均已实际验证,适用于 RTX 5080 等现代显卡。 📁 1. 统一文件夹结构(推荐) 在 E 盘 创建父文件夹 LLM,用于集中管理所有相关文件。子文件夹规划如下: text E:\LLM\ ├── Ollama\ # Ollama 程序安装目录 ├── OllamaModels\ # Ollama 下载的模型存放目录