clawdbot (openclaw) + discord 机器人部署指南学习教程

clawdbot (openclaw) + discord 机器人部署指南学习教程

本文介绍了基于 ClawdBot(OpenClaw)框架在 Discord 平台部署 AI 对话机器人的完整流程。内容包括:Discord Application 与 Bot 的创建配置、OAuth2 权限管理、pnpm 全局安装、Daemon 服务配置、多模型 API 接入(支持智谱 GLM 等主流大模型)、Gateway 服务启动与调试等核心环节。

一、网络要求

  • 魔法
  • 确保网络能够访问Discord服务
  • TUN模式(关键哦)

二、Discord平台配置

2.1 访问Discord开发者平台

访问地址:https://discord.com/developers/applications

2.2 创建应用程序

  1. 登录Discord开发者平台
  2. 点击"New Application"创建新应用
  3. 输入应用名称并确认创建
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

2.3 创建Bot

  1. 在应用设置页面,找到"Bot"选项卡
  2. 点击"Add Bot"创建机器人
  3. 确认创建Bot
  4. 找到"Token"部分
  5. 点击"Copy"复制Token

注意:请妥善保管Token,不要泄露

在这里插入图片描述

2.4 配置Bot权限

  1. 在Bot设置页面中,配置所需的权限
  2. 根据实际需求勾选相应的权限选项

保存配置

在这里插入图片描述

2.5 生成邀请链接

  1. 进入"OAuth2" → “URL Generator”
  2. 选择所需的作用域(Scopes)
  3. 选择Bot权限

复制生成的邀请链接

在这里插入图片描述

2.6 添加Bot到服务器

  1. 打开生成的邀请链接
  2. 选择要添加Bot的Discord服务器
  3. 确认授权
  4. Bot将自动加入到指定的服务器
在这里插入图片描述

三、clawdbot (openclaw) 安装配置

clawdBot (openclaw) 开发者平台:https://docs.openclaw.ai/

3.1 全局安装ClawdBot

pnpmadd -g clawdbot@latest 
说明:官方已将项目改名为 openclaw,但 clawdbot 命令仍然可以正常使用。

3.2 初始化配置

执行初始化命令:

clawdbot onboard --install-daemon 

3.3 配置参数

按照提示依次填写以下信息:

3.3.1 配置AI模型
  • 选择您使用的AI模型提供商
  • 示例:智谱GLM(根据实际使用的模型自行调整)
  • 输入对应的API Key

提前准备

  • 确保已获取对应AI服务的API Key

确认API Key的有效性和配额!

在这里插入图片描述
3.3.2 配置Discord Bot Token
  • 输入在步骤2.3中复制的Bot Token

确保Token正确无误

在这里插入图片描述


在这里插入图片描述

3.4 启动Gateway服务

执行以下命令启动服务:

clawdbot gateway --port 18789 --verbose 

参数说明

  • --port 18789:指定服务端口为18789
  • --verbose:启用详细日志输出在这里插入图片描述
在这里插入图片描述

四、使用机器人

4.1 与机器人对话

  1. 打开Discord应用
  2. 进入已添加Bot的服务器
  3. 在频道中@机器人名称
  4. 输入您的消息即可开始对话

示例

@机器人名称 你好,你是谁? 
在这里插入图片描述

故障排查

常见问题

  1. Bot无法响应
    • 检查VPN连接是否正常
    • 确认Gateway服务是否正在运行
    • 验证Bot Token是否正确
  2. API调用失败
    • 检查API Key是否有效
    • 确认API配额是否充足
    • 查看verbose日志获取详细错误信息
  3. 权限问题
    • 确认Bot在Discord服务器中拥有必要的权限
    • 检查频道权限设置

注意事项

  1. 安全提醒
    • 切勿将Bot Token和API Key泄露给他人哈
    • 建议定期更换Token和密钥
  2. 网络要求
    • 始终保持VPN连接稳定
    • 确保网络能够访问Discord和AI服务

附录

相关链接

Read more

OpenTiny NEXT 前端智能化系列直播征文开启,带你系统学习 AI 前端与 WebAgent

OpenTiny NEXT 前端智能化系列直播征文开启,带你系统学习 AI 前端与 WebAgent

🔥 个人主页:杨利杰YJlio❄️ 个人专栏:《Sysinternals实战教程》《Windows PowerShell 实战》《WINDOWS教程》《IOS教程》《微信助手》《锤子助手》《Python》《Kali Linux》《那些年未解决的Windows疑难杂症》🌟 让复杂的事情更简单,让重复的工作自动化 文章目录 * 在这里插入图片描述 1. AI 前端,不该只是“把聊天框接到页面里” * 在这里插入图片描述 2. 这次活动,为什么我觉得值得参加 * 2.1 不只是听概念,而是逼着自己把概念落地 * 2.2 技术范围很新,但切入点并不空泛 * 2.3 对写作者也很友好 * 在这里插入图片描述 3. 我理解的“前端智能化”,到底在变什么 * 3.1 第一层:前端从“固定界面”走向“

在Ubuntu 20.04上安装Ollama并部署大型语言模型:含Open WebUI图形界面教程

在Ubuntu 20.04上安装Ollama并部署大型语言模型:含Open WebUI图形界面教程

在Ubuntu 20.04上安装Ollama并部署大型语言模型:含Open WebUI图形界面教程 引言 在人工智能浪潮席卷全球的今天,大型语言模型(LLM)不再是遥不可及的云端技术。借助 Ollama,每一位开发者都能轻松地将强大的模型部署在自己的本地计算机上,实现无缝、私密且可定制的AI体验。本文将带领您一步步在 Ubuntu 20.04 系统上完成 Ollama 的安装与模型部署,并最终搭建美观易用的图形化界面(Open webui)。 Ollama 是什么? Ollama 是一个开源项目,专为在本地运行、管理和部署大型语言模型(如 Llama 3、Mistral、Gemma 等)而设计。 它的核心概念与优势非常清晰: * 简单易用:通过简单的命令行工具,即可完成模型的下载(pull)、运行(run)和管理。一条命令就能启动与模型的对话。 * 丰富的模型库:它提供了官方支持的模型库(Ollama

GLM-4.6V-Flash-WEB实战:打造会‘看’的AI助手

GLM-4.6V-Flash-WEB实战:打造会‘看’的AI助手 你有没有试过拍一张办公室角落的旧电路板照片,然后问:“这上面标着‘U7’的芯片是做什么用的?”——三秒后,手机屏幕跳出一段清晰解释:“这是一颗TPS54302DCQ降压稳压器,用于将12V输入转换为3.3V输出,为MCU供电;右侧丝印‘C12’为输入滤波电容,容值10μF。”这不是实验室Demo,也不是云端调用延迟两秒的API,而是你在本地GPU上跑起来的 GLM-4.6V-Flash-WEB 正在实时“看图说话”。 过去几年,我们习惯了让AI“写”、让AI“说”、让AI“画”,但真正让它“看懂”一张真实世界里的照片,并给出准确、专业、带上下文的判断,始终是个门槛不低的事。要么模型太大,单卡跑不动;要么部署太重,要配向量库、消息队列、微服务网关;要么接口不统一,前端工程师得专门学一套新协议。直到

HTML入门指南:从零开始学前端

第一章 初识 HTML & JavaWeb 前端学习方向 一、HTML 的定义 定义:HTML 全称超文本标记语言 1.HTML 的核心是给文本赋予机器可解析的语义结构,而非 “做网页”,网页只是其最常见的应用场景; 2.HTML 是声明式标记语言,无编程逻辑,底层通过 DOM 树实现与浏览器的交互; 3.HTML 的 “超文本” 本质是构建信息的非线性关联,是万维网的基础数据格式。 二、JavaWeb前端学习的方向 1.前端核心基础三剑客 HTML:负责搭建网页的骨架,决定页面有什么内容 CSS:负责搭建网页的骨架,决定页面有什么内容 JavaScript:负责给网页加交互,决定页面能做什么(点击按钮、表单验证、轮播图等) 2.进阶技术栈 前端框架: