OpenClaw 完整搭建指南:从零开始打造你的 AI 助手

OpenClaw 完整搭建指南:从零开始打造你的 AI 助手

OpenClaw 完整搭建指南:从零开始打造你的 AI 助手

本文基于实际部署经验,详细介绍 OpenClaw 的安装、配置 GitHub Copilot / Qwen 模型、接入钉钉、解决常见问题,以及搭建本地模型的完整流程。

在这里插入图片描述

目录

  1. 什么是 OpenClaw
  2. 环境准备与安装
  3. 配置模型提供商
  4. 接入钉钉机器人
  5. 钉钉插件常见问题与解决方案
  6. 日常使用技巧
  7. 搭建本地模型(llama.cpp)
  8. 总结与资源

一、什么是 OpenClaw

OpenClaw 是一个开源的 AI 助手框架,可以:

  • 🤖 接入多种大模型(Claude、GPT、Qwen、本地模型等)
  • 💬 连接多个消息平台(钉钉、Telegram、Discord、微信等)
  • 🛠️ 执行文件操作、Shell 命令、浏览器自动化
  • ⏰ 设置定时任务和提醒
  • 🧠 拥有持久记忆能力

简单说,它让你拥有一个 7x24 小时在线的 AI 助手,可以通过任何聊天软件与它对话。

项目地址: https://github.com/openclaw/openclaw
官方文档: https://docs.openclaw.ai


二、环境准备与安装

1. 系统要求

  • 操作系统: macOS、Linux 或 Windows(需要 WSL2)
  • Node.js: >= 22.x
  • 网络: 能访问 GitHub(配置模型时需要)

2. 安装 Node.js(如果没有)

Windows WSL / Ubuntu:

curl -fsSL https://deb.nodesource.com/setup_22.x |sudo -E bash - sudoaptinstall -y nodejs 

macOS:

brew install node@22 

验证安装:

node -v # 应显示 v22.x.xnpm -v 

3. 安装 OpenClaw

推荐方式(一键安装):

Linux / macOS:

curl -fsSL https://openclaw.ai/install.sh |bash

Windows PowerShell:

iwr-useb https://openclaw.ai/install.ps1 |iex

手动安装:

npminstall -g openclaw@latest openclaw onboard --install-daemon 

4. 运行引导程序

安装完成后会自动运行引导程序,如果跳过了,可以手动执行:

openclaw onboard --install-daemon 

引导程序会帮你:

  • 选择运行模式(本地/云端)
  • 配置默认模型
  • 设置 Gateway 端口
  • 安装守护进程

5. 验证安装

openclaw status # 查看服务状态 openclaw doctor # 诊断问题 openclaw health # 健康检查

三、配置模型提供商

OpenClaw 支持多种模型提供商,这里介绍最常用的两种:

方案一:GitHub Copilot(推荐)

如果你有 GitHub Copilot 订阅(包括学生包),可以直接使用:

openclaw models auth login-github-copilot 

执行后会显示一个链接和验证码:

  1. 在浏览器中打开链接
  2. 输入验证码
  3. 授权 GitHub 应用
  4. 等待终端显示成功

设置默认模型:

openclaw models set github-copilot/claude-opus-4.5 # 或者使用 GPT-4o openclaw models set github-copilot/gpt-4o 

可用模型列表:

  • github-copilot/claude-opus-4.5 — Claude Opus(最强)
  • github-copilot/claude-sonnet-4 — Claude Sonnet(均衡)
  • github-copilot/gpt-4o — GPT-4o
  • github-copilot/gpt-4.1 — GPT-4 Turbo

方案二:Qwen(通义千问,免费)

Qwen 提供免费的 OAuth 登录,每天 2000 次请求:

1. 启用插件:

openclaw plugins enable qwen-portal-auth openclaw gateway restart 

2. 登录认证:

openclaw models auth login --provider qwen-portal --set-default 

按提示在浏览器中完成登录。

3. 设置默认模型:

openclaw models set qwen-portal/coder-model 

可用模型:

  • qwen-portal/coder-model — Qwen Coder(代码增强)
  • qwen-portal/vision-model — Qwen Vision(支持图片)

方案三:其他提供商

OpenClaw 还支持:

  • OpenAI — 需要 API Key
  • Anthropic — 直接使用 Claude API
  • Ollama — 本地模型
  • OpenRouter — 模型聚合平台

详见官方文档:https://docs.openclaw.ai/providers


四、接入钉钉机器人

1. 创建钉钉应用

  1. 打开钉钉开放平台:https://open.dingtalk.com
  2. 进入「应用开发」→「企业内部开发」→「创建应用」
  3. 填写应用名称和描述
  4. 进入应用详情,获取:
    • Client ID(AppKey)
    • Client Secret(AppSecret)

2. 配置应用权限

在应用的「权限管理」中,申请以下权限:

  • qyapi_chat_manage — 群会话管理
  • qyapi_robot_sendmsg — 机器人发送消息
  • contact_user_mobile_read — 读取用户手机号(可选)

3. 配置消息接收地址

在「开发配置」→「事件与回调」中:

  • 消息接收模式: HTTP
  • 消息接收地址:https://你的域名/webhook/dingtalk
⚠️ 钉钉要求 HTTPS,本地开发可以用 ngrok 或 Cloudflare Tunnel

4. 安装钉钉插件

openclaw plugins install clawdbot-dingtalk openclaw plugins enable clawdbot-dingtalk 

5. 配置 OpenClaw

编辑配置文件 ~/.openclaw/openclaw.json

{"channels":{"dingtalk":{"enabled":true,"clientId":"你的Client ID","clientSecret":"你的Client Secret","dmPolicy":"pairing"}},"plugins":{"entries":{"clawdbot-dingtalk":{"enabled":true}}}}

或者使用命令行配置:

openclaw config set channels.dingtalk.enabled true openclaw config set channels.dingtalk.clientId "你的Client ID" openclaw config set channels.dingtalk.clientSecret "你的Client Secret"

6. 重启服务

openclaw gateway restart 

7. 测试连接

在钉钉中 @机器人 或私聊机器人,发送消息测试。


五、钉钉插件常见问题与解决方案

问题 1:消息发送失败,提示 “Unknown target”

原因: 钉钉 API 需要 userId 或 conversationId,而不是用户名。

解决方案:

  1. 先让用户给机器人发一条消息
  2. 从消息中获取 userId
  3. 使用 userId 发送消息

代码层面的修复:

// 错误:使用用户名 message.send({to:"maple",message:"hello"})// 正确:使用 userId 或 conversationId message.send({to:"user123456",message:"hello"})

问题 2:Webhook 签名验证失败

原因: 钉钉的签名验证机制要求时间戳在有效范围内。

解决方案:

  1. 确保服务器时间准确:sudo ntpdate pool.ntp.org
  2. 检查 Client Secret 是否正确
  3. 确认使用 HTTPS

问题 3:消息接收延迟或丢失

原因:

  • 服务器响应超时
  • 网络不稳定
  • Gateway 未正常运行

解决方案:

# 检查服务状态 openclaw status openclaw health # 查看日志 openclaw logs -f # 重启服务 openclaw gateway restart 

问题 4:无法接收群消息

原因: 未将机器人添加到群聊。

解决方案:

  1. 在钉钉群设置中添加「自定义机器人」
  2. 选择你创建的应用
  3. 确认机器人出现在群成员列表中

问题 5:Rate Limit 错误

原因: 钉钉 API 调用频率限制。

解决方案:

  • 企业内部应用:20次/秒
  • 减少不必要的 API 调用
  • 使用消息合并发送

调试技巧

查看详细日志:

openclaw logs -f --level debug 

测试 Webhook 连通性:

curl -X POST https://你的域名/webhook/dingtalk \ -H "Content-Type: application/json"\ -d '{"test": true}'

检查插件状态:

openclaw plugins list 

六、日常使用技巧

1. 常用命令

# 查看状态 openclaw status # 打开 Web 控制台 openclaw dashboard # 查看日志 openclaw logs -f # 重启服务 openclaw gateway restart # 切换模型 openclaw models set github-copilot/gpt-4o # 查看当前模型 openclaw models current 

2. 聊天中的斜杠命令

在聊天中可以使用:

  • /status — 查看会话状态
  • /model <模型名> — 切换模型
  • /clear — 清空对话历史
  • /help — 查看帮助

3. 设置提醒

在聊天中直接说:

“20分钟后提醒我开会”
“每天早上9点提醒我查看邮件”

OpenClaw 会自动创建 cron 任务。

4. 文件操作

在聊天中可以让 AI 帮你:

  • 读取/写入文件
  • 执行 Shell 命令
  • 搜索文件内容
  • 操作数据库

5. 多模型切换

# 创建模型别名 openclaw config set agents.defaults.models.qwen-portal/coder-model.alias "qwen"# 聊天中切换 /model qwen /model github-copilot/claude-opus-4.5 

七、搭建本地模型(llama.cpp)

如果你想在本地运行模型(无需 API),可以使用 llama.cpp。

1. 安装编译工具

sudoapt update sudoaptinstall -y cmake build-essential 

2. 编译 llama.cpp

mkdir -p ~/llama.cpp cd ~/llama.cpp git clone --depth 1 https://github.com/ggerganov/llama.cpp.git src cd src &&mkdir build &&cd build cmake .. -DCMAKE_BUILD_TYPE=Release make -j$(nproc) llama-cli llama-server 

3. 下载模型

mkdir -p ~/llama.cpp/models # Qwen2.5-3B(适合 4GB 显存)curl -L -o ~/llama.cpp/models/qwen2.5-3b.gguf \"https://hf-mirror.com/Qwen/Qwen2.5-3B-Instruct-GGUF/resolve/main/qwen2.5-3b-instruct-q4_k_m.gguf"# Qwen2.5-7B(适合 8GB 显存)curl -L -o ~/llama.cpp/models/qwen2.5-7b.gguf \"https://hf-mirror.com/Qwen/Qwen2.5-7B-Instruct-GGUF/resolve/main/qwen2.5-7b-instruct-q4_k_m.gguf"

4. 启动本地 API 服务

cd ~/llama.cpp/src/build/bin ./llama-server \ -m ~/llama.cpp/models/qwen2.5-3b.gguf \ --host 0.0.0.0 \ --port 8080\ -c 4096

服务启动后:

  • Web 界面:http://localhost:8080
  • API 端点:http://localhost:8080/v1/chat/completions

5. 在 OpenClaw 中配置本地模型

编辑 ~/.openclaw/openclaw.json,添加自定义 provider:

{"models":{"providers":{"local-llama":{"baseUrl":"http://localhost:8080/v1","apiKey":"not-needed","api":"openai-completions","models":[{"id":"qwen2.5-3b","name":"Qwen 2.5 3B Local","contextWindow":4096,"maxTokens":2048}]}}}}

切换到本地模型:

openclaw models set local-llama/qwen2.5-3b 

6. 本地模型 vs 云端模型

对比项本地模型云端模型
成本一次性硬件投入按量付费
隐私数据不出本地需信任提供商
速度取决于硬件通常更快
能力受限于模型大小可用最强模型
可用性需要本地运行7x24 小时

建议:

  • 敏感数据 → 本地模型
  • 复杂任务 → 云端大模型
  • 日常聊天 → 本地 7B 足够

八、总结与资源

快速回顾

  1. 安装 OpenClaw:curl -fsSL https://openclaw.ai/install.sh | bash
  2. 配置模型:openclaw models auth login-github-copilot
  3. 接入钉钉: 安装 clawdbot-dingtalk 插件 + 配置 credentials
  4. 本地模型: llama.cpp + GGUF 模型

常用链接

资源地址
OpenClaw GitHubhttps://github.com/openclaw/openclaw
官方文档https://docs.openclaw.ai
钉钉开放平台https://open.dingtalk.com
llama.cpphttps://github.com/ggerganov/llama.cpp
模型下载(镜像)https://hf-mirror.com
社区 Discordhttps://discord.com/invite/clawd

进阶学习

  • 自定义 Agent 行为:编辑 ~/.openclaw/workspace/SOUL.md
  • 开发自定义插件:参考 /docs/plugins/manifest.md
  • 多 Agent 协作:参考 /docs/multi-agent-sandbox-tools.md

文章整理于 2026-02-03
基于 OpenClaw 2026.2.1 版本
如有问题欢迎交流!

Read more

Windows环境本地大模型工具链安装教程:Ollama + llama.cpp + LLaMA Factory

Windows 11 本地大模型工具链终极教程:Ollama + llama.cpp + LLaMA Factory 本教程将指导你在 Windows 11 系统上,将 Ollama、llama.cpp 和 LLaMA Factory 三个工具统一安装到 E 盘,并实现 GPU 加速、数据集配置和一键启动。所有步骤均已实际验证,适用于 RTX 5080 等现代显卡。 📁 1. 统一文件夹结构(推荐) 在 E 盘 创建父文件夹 LLM,用于集中管理所有相关文件。子文件夹规划如下: text E:\LLM\ ├── Ollama\ # Ollama 程序安装目录 ├── OllamaModels\ # Ollama 下载的模型存放目录

【VSCode Copilot登录失败终极指南】:9大常见问题与高效解决方案

第一章:VSCode Copilot登录失败的典型表现 当使用 VSCode 中的 GitHub Copilot 插件时,用户在尝试登录过程中可能会遇到多种异常现象。这些表现不仅影响代码补全功能的正常使用,还可能干扰开发流程。以下是常见的登录失败典型表现。 认证窗口无法加载 部分用户在点击“Sign in to GitHub”后,浏览器或内置认证弹窗长时间停留在加载状态,最终显示空白页面或提示网络错误。这通常与本地网络策略、代理设置或防火墙规则有关。 登录成功但插件无响应 尽管认证流程显示已完成,Copilot 图标仍显示未登录状态,且不提供任何代码建议。此时可在命令面板(Ctrl+Shift+P)中执行以下命令检查状态: # 检查 Copilot 当前会话状态 Developer: Reload With Extensions Disabled # 重新启用后再次尝试 GitHub Copilot: Sign in to GitHub 错误提示信息汇总

Copilot 之后,再无“搬砖”

Copilot 之后,再无“搬砖”

硬编码时代,我们似乎已经习惯了在编辑器里按下 Tab 键。但如果你依然只把 AI 当作一个“高级补全插件”,那么你可能正在错过这场生产力革命的下半场。从 Copilot 到 Agent(智能体),这不仅仅是名称的更迭,更是开发范式从“辅助”向“协作”的本质跃迁。 今天,我想聊聊如何在这个交叉点上,利用开源生态构建一个真正属于你自己的私有化开发助手。 1. 为什么说 Copilot 已经不够用了? 如果把 AI 辅助开发比作驾驶,传统的 Copilot(如 GitHub Copilot, Cursor)更像是“定速巡航”:它能帮你保持车速、预测下一个弯道(代码补全),但它并不清楚你要去哪,更无法在遇到封路时自动规划绕行方案。 而 Agent 则是“自动驾驶”。两者的核心差异在于:自主性与闭环能力。 * Copilot(

Flutter 三方库 llm_json_stream 的鸿蒙化适配指南 - 掌控 LLM 流式 JSON 解析、大模型解析实战、鸿蒙级精密 AIGC 专家

Flutter 三方库 llm_json_stream 的鸿蒙化适配指南 - 掌控 LLM 流式 JSON 解析、大模型解析实战、鸿蒙级精密 AIGC 专家

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 llm_json_stream 的鸿蒙化适配指南 - 掌控 LLM 流式 JSON 解析、大模型解析实战、鸿蒙级精密 AIGC 专家 在鸿蒙跨平台应用执行大型语言模型(LLM)的流式交互(如实时获取大模型生成的结构化 JSON 数据、处理非完整的 JSON 片段解析或是实现一个具备极致反馈速度的 AI 驱动表单)时,如果依赖传统的 jsonDecode,极易在处理“不完整字符串(Chunk)”、“语法中断”或“非预期的文本噪声”时陷入解析异常死循环。如果你追求的是一种完全对齐流式解析规范、支持实时恢复 JSON 结构且具备极致容错性能的方案。今天我们要深度解析的 llm_json_stream—