手把手教你“养龙虾”:OpenClaw本地部署完全指南(Windows/Mac/Linux全兼容)

目录

1.为什么要本地部署?先搞懂这三点

1.数据隐私可控

2.长期零成本

3.断网也能用

2.部署前的“全家桶”准备

3.Windows 11本地部署(最全版本)

第一步:以管理员身份打开PowerShell

第二步:解锁执行策略

第三步:一键安装核心依赖

第四步:验证安装

第五步:配置国内镜像(加速下载)

第六步:全局安装OpenClaw

第七步:初始化配置

第八步:启动服务

第九步:生成访问Token

第十步:访问Web控制台

4.MacOS本地部署(Intel芯片/M芯片通用)

第一步:打开终端

第二步:安装Homebrew(包管理工具)

第三步:安装Node.js 22

第四步:验证安装

第五步:配置国内镜像(可选,但推荐)

第六步:全局安装OpenClaw

第七步:初始化配置

第八步:启动服务

第九步:生成Token并访问

5.Linux本地部署(Ubuntu 20.04+)

第一步:打开终端

第二步:安装Node.js 22和Git

第三步:验证安装

第四步:配置国内镜像(可选)

第五步:全局安装OpenClaw

第六步:初始化配置

第七步:启动服务

第八步:生成Token并访问

6.进阶玩法:对接本地大模型(Ollama+Qwen)

第一步:安装Ollama

第二步:拉取本地模型(推荐Qwen2.5 7B)

第三步:定制模型(扩展上下文窗口)

第四步:重新配置OpenClaw对接本地模型

7.Skill安装:给“龙虾”装技能

核心安全原则:先装安全工具,再装功能插件

常用必备Skill(一键安装)

查看已安装Skill

8.避坑指南(新手必看)

坑1:Node.js版本过低

坑2:端口被占用

坑3:模型上下文窗口过小

坑4:Token泄露

坑5:Skill安装失败


1.为什么要本地部署?先搞懂这三点

在动手之前,咱们先花3分钟搞清楚一个问题:为什么要把OpenClaw装在本地,而不是直接用云端版?

1.数据隐私可控

你的聊天记录、文件内容、API密钥全都留在自己电脑里,不用上传任何第三方服务器。这对处理敏感数据的人来说,是刚需。

2.长期零成本

云端部署虽然方便,但Token消耗起来是真的肉疼——重度用户一天烧掉上百万Token,长期下来不是小数目。本地部署搭配Ollama本地模型,等于一次性投入,终身免费。

3.断网也能用

哪怕家里断网、出差飞机上,只要你电脑有电,OpenClaw就能干活。

2.部署前的“全家桶”准备

不管你是哪个系统,下面这几样东西必须先准备好:

核心凭证:

1.阿里云百炼API-Key(用于调用大模型能力,新用户有免费额度)

2.获取路径:登录阿里云百炼大模型服务平台 → 密钥管理 → 创建API-Key,生成后立即复制保存(关掉页面就看不到了)

辅助工具:

1.浏览器(Chrome/Edge都行)

2.文本编辑器(VS Code或记事本都够用)

3.一个加密记事本(专门存API-Key和Token)

网络要求:

确保网络通畅,能正常下载依赖包(建议提前配好国内镜像,后面有命令)

3.Windows 11本地部署(最全版本)

第一步:以管理员身份打开PowerShell

右键点击开始菜单 → 选择“Windows PowerShell(管理员)”,这一步很重要,否则后面会权限报错。

第二步:解锁执行策略

powershell Set-ExecutionPolicy -Scope CurrentUser RemoteSigned -Force

输入这行命令,回车,看到没有任何报错就行。

第三步:一键安装核心依赖

powershell # 安装Node.js 22+(OpenClaw运行必须) winget install OpenJS.NodeJS.LTS --version 22.2.0 # 安装Python 3.9(部分Skill依赖) winget install Python.Python.3.9 # 安装Git(拉取代码用) winget install Git.Git

如果winget命令报错,可以去官网手动下载安装:

Node.js官网:https://nodejs.org (选LTS版,安装时勾选“Add to PATH”)

Python官网:https://python.org (选3.9+,安装时勾选“Add Python.exe to PATH”)

第四步:验证安装

powershell node --version  # 应显示v22.x.x npm --version   # 应显示10.x.x python --version  # 应显示Python 3.9.x

如果版本都对,继续下一步。

第五步:配置国内镜像(加速下载)

powershell npm config set registry https://registry.npmmirror.com

这步能让你后面安装快3倍以上。

第六步:全局安装OpenClaw

powershell npm install -g openclaw@latest

等进度条跑完,出现绿色的“added xxx packages”就成功了。

第七步:初始化配置

powershell openclaw init

系统会进入交互式配置界面,按提示操作:

· 选择模型提供商:选“Custom Provider”

· 输入API Base URL:https://dashscope.aliyuncs.com/compatible-mode/v1(阿里云百炼地址)

· 输入API Key:粘贴你刚才保存的百炼API-Key

· 其他选项全部回车默认

第八步:启动服务

powershell openclaw start

看到“Server running on port 18789”的提示,说明启动成功。

第九步:生成访问Token

powershell openclaw start

复制输出的那串长字符串(以oc_开头),保存好。

第十步:访问Web控制台

打开浏览器,输入:

http://localhost:18789/?token=刚才复制的Token

看到OpenClaw的对话界面,恭喜你,Windows版“龙虾”养成功!

4.MacOS本地部署(Intel芯片/M芯片通用)

第一步:打开终端

在“启动台”搜索“终端”,打开。

第二步:安装Homebrew(包管理工具)

bash /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

如果已经装过,这步可以跳过。

第三步:安装Node.js 22

bash brew install node@22 echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc source ~/.zshrc

M芯片的Mac会自动安装ARM版本,不用担心兼容性。

第四步:验证安装

bash node --version npm --version

应该看到v22.x.x和10.x.x。

第五步:配置国内镜像(可选,但推荐)

bash npm config set registry https://registry.npmmirror.com

第六步:全局安装OpenClaw

bash npm install -g openclaw@latest

第七步:初始化配置

bash openclaw init

交互步骤和Windows完全一样,按提示输入阿里云百炼API-Key即可。

第八步:启动服务

bash openclaw start

第九步:生成Token并访问

bash openclaw token generate

浏览器输入http://localhost:18789/?token=你的Token,搞定!

5.Linux本地部署(Ubuntu 20.04+)

第一步:打开终端

第二步:安装Node.js 22和Git

bash curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bash sudo apt install -y nodejs git

第三步:验证安装

bash node --version npm --version

第四步:配置国内镜像(可选)

​bash npm config set registry https://registry.npmmirror.com ​

第五步:全局安装OpenClaw

bash npm install -g openclaw@latest

第六步:初始化配置

bash openclaw init

同样是交互式配置,输入阿里云百炼API-Key。

第七步:启动服务

bash sudo openclaw start

Linux下可能需要sudo权限。

第八步:生成Token并访问

bash openclaw token generate

浏览器访问http://你的本地IP:18789/?token=你的Token。

6.进阶玩法:对接本地大模型(Ollama+Qwen)

如果你不想用云端API,想完全本地运行,可以搭配Ollama使用。

第一步:安装Ollama

访问Ollama官网(ollama.com)下载对应系统的安装包,一路下一步。

第二步:拉取本地模型(推荐Qwen2.5 7B)

bash # Windows/Mac/Linux通用 ollama pull qwen2.5:7b

这个模型约4.7GB,显存4GB以上的显卡都能跑。

第三步:定制模型(扩展上下文窗口)

OpenClaw要求上下文窗口≥16000 tokens,默认模型只有4096,需要手动定制:

bash # 创建Modelfile配置文件 echo "FROM qwen2.5:7b PARAMETER num_ctx 32768" > Modelfile # 创建自定义模型 ollama create qwen2.5:7b-32k -f Modelfile

第四步:重新配置OpenClaw对接本地模型

bash openclaw config wizard

这次选择:

· 模型提供商:Custom Provider

· API Base URL:http://127.0.0.1:11434/v1

· API Key:任意输入(比如“ollama”)

· Model ID:qwen2.5:7b-32k

7.Skill安装:给“龙虾”装技能

部署只是第一步,装Skill才是让“龙虾”真正干活的关键。

核心安全原则:先装安全工具,再装功能插件

bash # 安装安全扫描工具 clawhub install skill-vetting

这个工具能从源头拦截恶意插件,强烈建议第一个装。

常用必备Skill(一键安装)

bash # 文件管理器 clawhub install file-manager # 内容摘要 clawhub install summary # 邮件处理 clawhub install email # 定时任务 clawhub install scheduler # 网页自动化 clawhub install web-automation # 数据抓取 clawhub install scraper

安装完成后重启服务生效。

查看已安装Skill

bash clawhub list

8.避坑指南(新手必看)

根据上百位读者的反馈,我整理了最常见的几个坑:

坑1:Node.js版本过低

症状:安装报错“requires Node.js >=22.0.0”

解决:去官网重装最新版,或者用n升级:sudo n 22.0.0

坑2:端口被占用

症状:启动时提示“port 18789 already in use”

解决:关掉其他占用程序,或者改端口:openclaw config set server.port 18790

坑3:模型上下文窗口过小

症状:调用时报错“Model context window too small”

解决:按06部分定制模型,或者修改配置文件增加num_ctx参数

坑4:Token泄露

症状:发现陌生IP访问你的控制台

解决:立即重新生成Token:openclaw token generate --admin,不要把Token截图发群里

坑5:Skill安装失败

症状:clawhub install卡住或报错

解决:检查网络,或从GitHub直接拉取:git clone 技能地址

Read more

AI编程工具深度对比:Cursor、Copilot、Trae与Claude Code,2025年开发者该如何选择?

2025年,AI编程助手已从新奇技术演变为生产力核心,但面对众多选择,开发者如何才能找到最适合自己的智能编程伙伴? 一、四大AI编程工具的核心定位与市场格局 2025年的AI编程工具市场已经形成了明显的分层格局。根据最新的开发者使用数据,这些工具不再仅仅是代码补全助手,而是朝着专业化、场景化方向发展。

By Ne0inhk
Flutter for OpenHarmony 实战:疯狂头像 App(四)— 通义万相 AIGC 联调与相册持久化实战

Flutter for OpenHarmony 实战:疯狂头像 App(四)— 通义万相 AIGC 联调与相册持久化实战

Jan-31-2026 23-32-23 Flutter for OpenHarmony 实战:疯狂头像 App(四)— 通义万相 AIGC 联调与相册持久化实战 摘要:行百里者半九十。本文作为“疯狂头像”(Crazy Avatar)实战系列的终章,我们将完成从 AI 异步生成到图片系统级保存的全链路闭环。本文将重点攻克鸿蒙(HarmonyOS)侧的 module.json5 权限合规、媒体库写入逻辑及网络请求健壮性处理,助你打造商业级 AIGC 应用。 前言 在之前的《动效篇》中,我们为应用注入了生动的灵魂。但一个真正的 AI 工具,如果不能产生“作品”并持久化到物理存储,它就只是一个精致的“空中楼阁”。 在鸿蒙(HarmonyOS Next)生态中,文件的存储安全与权限管理有着极其严格的标准。

By Ne0inhk
写文章用哪个AI?2025年AI写作工具终极指南

写文章用哪个AI?2025年AI写作工具终极指南

写文章用哪个AI?2025年AI写作工具终极指南 前言:当你盯着空白文档时,AI正在盯着你 相信每个写作者都经历过这样的时刻:deadline如达摩克利斯之剑悬在头顶,Word文档里却只有一个闪烁的光标在嘲笑你的才华枯竭。这时候,你可能会想:“要是有个AI能帮我写就好了。” 好消息是,2025年的今天,AI写作工具已经从"能用"进化到"好用",甚至"离不开"的程度。坏消息是,选择太多也是一种甜蜜的负担。 一、主流AI写作工具横向对比 1. Claude(Anthropic)—— 学术派的温柔巨人 核心优势: * 长文本处理能力:支持20万+tokens的上下文,能一次性处理约15万字的内容 * 逻辑连贯性:在长篇文章写作中表现出色,结构清晰,论证严密 * 安全性高:内容审核严格,适合正式场合使用 适用场景: * 学术论文、研究报告 * 长篇商业文档

By Ne0inhk

深度解析 GitHub Copilot Agent Skills:如何打造可跨项目的 AI 专属“工具箱”

前言 随着 GitHub Copilot 从单纯的“代码补全”工具向 Copilot Agent(AI 代理) 进化,开发者们迎来了更高的定制化需求。我们不仅希望 AI 能写代码,更希望它能理解团队的特殊规范、掌握内部工具的使用方法,甚至在不同的项目中复用这些经验。 Agent Skills(代理技能) 正是解决这一痛点的核心机制。本文将深入解析 Copilot Skills 的工作原理,并分享如何通过软链接(Symbolic Link)与自动化工作流,构建一套高效的个人及团队知识库。 一、 什么是 Agent Skills? 如果说 Copilot 是一个通用的“AI 程序员”,那么 Skill(技能) 就是你为它配备的专用工具箱。 它不仅仅是一段简单的提示词(Prompt),而是一个包含元数据、指令和执行资源的标准文件夹结构。当

By Ne0inhk