【养龙虾】OpenClaw 安装部署全流程 - 手把手教你搭建自己的 AI 助手

【养龙虾】OpenClaw 安装部署全流程 - 手把手教你搭建自己的 AI 助手
折腾了整整两天,终于把 OpenClaw 部署好了!过程中踩了不少坑,今天把完整流程记录下来,希望能帮到想入门的小伙伴。本文适合零基础新手,大佬请绕道~
既然都开始养虾了,那肯定少不了让它来生成一篇养虾的过程文章。
在这里插入图片描述

目录

🤔 什么是 OpenClaw?

简单来说,OpenClaw 是一个自托管的 AI 网关,它可以把你常用的聊天软件(微信、Telegram、Discord、iMessage…)和一个 AI 助手连接起来。

举几个例子:

  • 📱 在微信上发消息,AI 就能自动回复
  • 💬 在 Discord 群里 @它,AI 就能参与讨论
  • 📲 人在外面用 WhatsApp 随时召唤你的私人 AI

为什么叫"龙虾"?

  • 官方 Logo 就是一只红色卡通龙虾 🦞
  • 英文名 OpenClaw 直译是"开源的钳子",像龙虾的大爪子

🛠️ 环境准备

硬件要求

配置最低要求推荐配置
操作系统macOS 10.15+ / Linux / Windows WSL2macOS 12+
内存8GB16GB+
存储空间5GB20GB+
网络能访问国际互联网稳定带宽

软件要求

# 检查 Node.js 版本(需要 Node 22+)node--version# 如果没有 Node.js,推荐使用 nvm 安装curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh |bash nvm install22 nvm use 22

💡 小提示:如果你用的是 macOS,推荐直接用 Homebrew 安装:

brew install node@22 

📋 安装步骤

方式一:macOS 用户(最简单)

如果你用的是 Mac,强烈推荐使用官方 App,体验最丝滑:

# 方法 1:直接下载安装包# 访问 https://github.com/openclaw/openclaw/releases 下载 .dmg 文件# 方法 2:使用 Homebrew brew install openclaw/tap/openclaw 

安装完成后,打开 OpenClaw.app,它会出现在菜单栏。

方式二:命令行安装(跨平台)

这是最通用的安装方式,Linux/Windows WSL/Mac 通用:

# 1. 全局安装 OpenClaw CLInpminstall-g openclaw # 2. 验证安装 openclaw --version# 3. 初始化设置 openclaw setup 

运行 openclaw setup 后,会出现交互式引导,按提示选择即可。

⚠️ 注意:有些渠道需要额外配置,比如 Telegram 需要先找 @BotFather 申请 Bot Token,Discord 需要创建开发者应用。

方式三:Docker 部署(适合服务器)

如果你是部署在服务器上,Docker 是最省心的选择:

# 1. 拉取镜像docker pull openclaw/openclaw:latest # 2. 创建配置目录mkdir-p ~/.openclaw # 3. 运行容器docker run -d\--name openclaw \-p18789:18789 \-v ~/.openclaw:/root/.openclaw \ openclaw/openclaw:latest 

🔧 详细配置

配置文件位置
~/.openclaw/openclaw.json
基础配置示例

{"gateway":{"port":18789, "verbose":true}, "channels":{"telegram":{"enabled": true, "botToken":"YOUR_BOT_TOKEN_HERE"}, "discord":{"enabled": true, "botToken":"YOUR_DISCORD_BOT_TOKEN"}}, "model":{"provider":"anthropic", "model":"claude-sonnet-4-20250514", "apiKey":"sk-ant-xxx..."}}

🔐 安全提醒:建议使用环境变量而非直接在配置文件写敏感信息

🔗 渠道配置详解

Telegram 配置步骤

Step 1:创建 Bot

1.打开 Telegram,搜索 @BotFather
2.发送 /newbot 命令
3.给你的 Bot 起个名字(比如 “我的 AI 助手”)
4.给你的 Bot 设置用户名(必须以 _bot 结尾)
5.复制 Bot Father 给你的 Token

Step 2:配置 OpenClaw

openclaw config set channels.telegram.botToken "你的Token"

Step 3:启动并测试

openclaw gateway # 在 Telegram 中搜索你的 Bot 用户名,发送 /start 进行配对

Discord 配置步骤

Step 1:创建 Discord 应用
1.访问 https://discord.com/developers/applications
2.点击 “New Application”

Step 2:创建 Bot
1.进入 “Bot” 页面
2.点击 “Add Bot”
3.复制 Bot Token(记得开启 Message Content Intent)

Step 3:邀请 Bot 到服务器
1.进入 “OAuth2” -> “URL Generator”
2.勾选 bot 权限
3.复制生成的 URL,在浏览器中打开并选择服务器

🚀 启动与验证

启动 Gateway

# 前台运行(查看日志) openclaw gateway --verbose# 后台运行 openclaw gateway &

验证

openclaw health 

打开控制台
浏览器访问 http://127.0.0.1:18789

架构流程图

用户发送消息 → 聊天渠道 → Gateway → AI Model → 返回消息

🔍 常见问题汇总

Q1:启动报错 “Port 18789 already in use”

lsof-i :18789 # 或者换端口 openclaw gateway --port18790

Q2:Telegram Bot 发消息没反应
1.检查 Bot Token 是否正确
2.确保已经和 Bot 发起对话(需要先私聊 /start)
3.查看日志:openclaw gateway --verbose

Q3:Discord 提示 “Missing Access”
1.检查 Bot 权限是否足够
2.确保 Bot 已在服务器中
3.在 Discord Developer Portal 检查 intents 设置

⚠️ 注意事项

1.网络安全:部署在公网时务必配置访问密码
2.Token 消耗:AI 对话需要消耗 API Token,注意费用
3.隐私安全:不要在对话中输入敏感个人信息
4.及时更新:关注官方 releases 更新安全补丁

📚 参考资料

💬 最后

部署完成的那一刻,看到控制台显示"🟢 已连接",你就成功开始养虾啦!
祝大家都能养好自己的"小龙虾"! 🦞🚀

Read more

前端通用AI rules定义,适用于Cursor ,Trae,Qorder等AI开发工具

前端通用 AI Rules 定义 (适用于 Cursor、Trae、Qoder、Windsurf、Zed + AI、Codeium、Copilot 等几乎所有主流 AI 代码助手) 以下内容是 2025–2026 年在前端圈被大量验证、反复迭代后相对好用的“通用前端 Rules”模板。 你可以直接复制粘贴到 Cursor 的 Rules / Custom Instructions / 项目 .cursor/rules.md 中,或者 Trae、Qoder 等工具的类似位置。 推荐的通用前端 Rules 结构(2026 年主流写法) # 前端通用 Rules - 适用于 React / Vue

服务端之NestJS接口响应message编写规范详解、写给前后端都舒服的接口、API提示信息标准化

服务端之NestJS接口响应message编写规范详解、写给前后端都舒服的接口、API提示信息标准化

MENU * 前言 * 定义 * 提示信息设计原则 * 提示信息风格分类 * 提示信息模板化设计 * 国际化与多语言支持 * 最佳实践 * 参考示例(NestJS响应) * 总结 * 统一风格示例清单推荐 * API响应message清单(可直接使用) 前言 在现代后端开发中,接口响应不仅仅是数据的传递,还承担着向前端或用户传递操作状态和结果的功能。一个规范、统一的message字段设计,可以显著提升系统的可维护性、前端开发效率和用户体验。 定义 响应结构示例(NestJS风格) 各字段作用 提示信息设计原则 简洁明了 1、不宜过长,一般3~12个汉字。 2、避免含糊不清的词,如“完成了”、“OK”等。 统一风格 1、同一项目接口建议使用统一动词+状态组合,例如:获取数据成功、数据加载完成。 上下文清晰 1、提示信息应体现操作对象或类型,如“用户列表获取成功”

1Panel+Ollama+WebUI:打造本地AI模型的完整指南(附Gemini插件教程)

1Panel、Ollama与Open WebUI:构建你的私有化AI模型应用平台实战 在AI技术日益普及的今天,许多开发者和技术爱好者不再满足于仅仅调用云端API。他们渴望在本地环境中部署、管理和实验自己的AI模型,无论是出于数据隐私的考量、网络环境的限制,还是纯粹对技术探索的热爱。构建一个稳定、易用且可扩展的本地AI平台,成为了一个极具吸引力的目标。本文将为你呈现一套完整的解决方案,它并非简单的工具堆砌,而是一个经过精心设计的、以1Panel为控制中枢,Ollama为模型引擎,Open WebUI为交互前端的集成化平台。我们将深入探讨如何将它们无缝衔接,并重点解锁通过插件系统集成如Gemini等第三方模型的高级玩法,让你在本地也能拥有媲美云端服务的AI应用体验。 1. 平台基石:1Panel与OpenResty的部署与配置 构建任何复杂应用,一个稳定且管理便捷的基础环境是首要前提。1Panel作为一个现代化的Linux服务器运维管理面板,以其直观的Web界面和容器化应用管理能力,极大地简化了服务器运维工作。而OpenResty,作为Nginx的增强版本,集成了LuaJIT,为

AI 前端到底是什么?为什么说AI前端是未来趋势?

AI 前端到底是什么?为什么说AI前端是未来趋势?

⭐ 一、AI 前端和普通前端有什么区别? 下面是一张非常直观的对比: 内容普通前端AI 前端功能核心UI 展示 + 用户交互UI 展示 + 用户交互 + 智能内容生成与后端交互调用普通 REST API调用 大模型 API / AI 服务输出形式页面固定页面可动态生成 / 布局可变化原型制作Figma → 人工写页面Figma → AI 自动生成代码前端逻辑手写逻辑部分逻辑由 AI 执行(智能体 UI)用户体验按钮 + 表单对话式 UI / 多模态交互技术要求JS / Vue / ReactJS + AI SDK + Prompt + 多模态理解能力 一句话: 👉 普通前端 = 静态 UI 👉 AI 前端 = 会思考的 UI ⭐ 二、AI 前端需要学习哪些技术? AI 前端不是新语言,而是 前端