Windowns系统WSL2 Ubuntu 方式部署Openclaw

Windowns系统WSL2 Ubuntu 方式部署Openclaw

这是官方推荐的 Windows 部署方式,提供最完整的 Linux 环境支持。

好消息!近期找到个更简单部署方法,通过镜像还原方式,适合想快速部署或零基础的!

【Openclaw安装别再花冤枉钱了!零基础镜像还原法,一次成功-哔哩哔哩】 https://b23.tv/iH4usWS

准备:启用适用于Linux的Windows子系统和虚拟化平台,重启电脑。

1. 启用 WSL2

以管理员

身份打开 PowerShell,执行:

# 启用 WSL 功能

dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart

# 设置 WSL 2 为默认版本,部分电脑此步可能报错,​​​​​此处暂不理会,​​通过下文中的WSL内核更新解决

wsl --set-default-version 2


 

2. 安装 Ubuntu

方法1 :Microsoft Store 安装(推荐)

  1. 打开 Microsoft Store
  2. 搜索「Ubuntu 24.04 LTS」
  3. 点击「获取」并安装

安装完成后会自动打开 Ubuntu 终端,按提示设置用户名和密码。

方法2 :wsl命令安装

wsl --install -d Ubuntu-24.04

部分电脑报错无法解析服务器的名称或地址

解决方案

  1. 打开 /C:\Windows\System32\drivers\etc文件,添加IP domain的对,如图:

IPaddress中搜索查看IP

 

启动Ubuntu 24.04 LTS

部分windows安装ubuntu时,报错:Installing, this may take a few minutes... WslRegisterDistribution failed with error: 0x8007019e Error: 0x8007019e ??????? Linux ? Windows ????

这个报错 0x8007019e 通常是因为在安装 Ubuntu 之前,没有先开启 Windows 的 “适用于 Linux 的 Windows 子系统 (WSL)” 功能。

在PowerShell中执行如下命令,然后重启电脑即可

Enable-WindowsOptionalFeature -Online -FeatureName Microsoft-Windows-Subsystem-Linux

重启完成后重新打开Ubuntu 24.04 LTS

首次启动设置用户名和密码,注意在ubuntu中输入密码时没有任何显示,直接输入完成回车即可

 

 WSL内核更新

1. 在PowerShell中管理员身份运行,执行

wsl --update

如果出现wsl --update 卡在 0%问题

解决方法1:依次执行如下命令

# 停止 Windows Update 服务

net stop wuauserv

# 重新启动服务

net start wuauserv

解决方法2:强制从网络获取最新更新

wsl --update --web-download

 

2. 执行版本转换命令
现在,运行转换命令。同样在 PowerShell 中,输入

wsl --set-version Ubuntu-24.04 2

 查看版本

wsl -l -v

 

 

更新 Ubuntu 系统

在 Ubuntu 终端中执行:

# 更新软件包列表

sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git wget build-essential

 

安装 Node.js 22+

# 添加 NodeSource 仓库

curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -

# 安装 Node.js

sudo apt install -y nodejs
# 验证版本(必须 ≥ 22.x) node -v npm -v

 

安装 OpenClaw

一键脚本安装

curl -fsSL https://openclaw.ai/install.sh | bash
通过左右方向键切换 Yes/No 选项,选择 Yes 即表示已了解 OpenClaw 权限相关风险,同意继续配置。

选择Yes

 

进入 Onboarding mode 选择界面时,对于首次配置的用户,建议优先选择 QuickStart 模式——该模式以「最小配置+最快部署」为目标,可跳过非必要配置项,快速完成 OpenClaw 基础部署。

 

◆Model/auth provide

配置要使用的模型,可以在这里直接配置,也可以后续通过配置文件处理。

因为笔者使用 moonshot 国内模型,但是 OpenClaw 的配置是国际的会导致接口地址错误,所以笔者先选择 Skip for now 跳过大模型配置,后面再单独设置要使用的模型即可。

 

保持默认选择All providers,回车即可

Default model

进入 Default model 选择界面时可任意选择一个模型临时占位——该配置后续将通过修改配置文件覆盖,不影响最终使用效果,保持默认选择Keep current,回车即可

◆Select channel (QuickStart)

配置要使用的对话应用,如果用飞书,按要求填参数即可。这里可选 Skip for now ,先跳过选择,后面笔者会单独用一节内容讲解怎么配置。

 

◇ Skills status

配置技能,可以选 No,根据提示安装一些常用的工具。

 

按空格选中Skip for now

 

最后查看界面输出的信息,将这些信息保存下来。

 

安装完成

 

 

此时执行openclaw指令提示“openclaw: command not found”,依次执行如下指令添加openclaw到系统环境变量

mkdir ~/.npm-global
npm config set prefix '~/.npm-global'
echo 'export PATH=~/.npm-global/bin:$PATH' >> ~/.bashrc
source ~/.bashrc

查看gateway状态

 

http://127.0.0.1:18789/#token=d3f44d798d67a145cbcb0caa5aa9b02de9fdad623384039c

 

本地模型配置步骤:

Ollama 默认只监听 127.0.0.1,没监听这个虚拟网卡的 IP

第一步:Windows 上设置环境变量,让 Ollama 监听所有接口
以管理员身份打开 PowerShell,执行:

setx OLLAMA_HOST "0.0.0.0" /M

重启 Ollama(任务栏右下角小羊驼图标 → 右键 Quit → 重新从开始菜单启动)。

在 powershell命令行执行:

netstat -an | findstr 11434


如果看到 0.0.0.0:11434 或 :::11434 处于 LISTENING,就成功了。
如果只有 127.0.0.1:11434,说明没生效,重启电脑即可。

 

第二步:WSL2 里用正确的宿主机 IP 测试
在 WSL2 Ubuntu 中执行(这才是你该用的 IP,不是 172.24.64.1):

bash

ip route show | grep default | awk '{print $3}'

这会输出 Windows 宿主机在 WSL2 网络中的真实网关 IP,大概率是 172.24.64.1 或类似(就是 Windows 的 vEthernet (WSL) 网卡 IP)。

然后用这个 IP 测试:bash

curl http://172.28.240.1:11434/api/tags   # 把 IP 换成你上面查到的

修改配置,建议直接在如下配置基础上修改

{ "wizard": { "lastRunAt": "2026-02-19T08:45:16.629Z", "lastRunVersion": "2026.2.17", "lastRunCommand": "onboard", "lastRunMode": "local" }, "agents": { "defaults": { "model": { "primary": "ollama/qwen3:8b", "fallbacks": [ "openai/gpt-5.1-codex" ] }, "models": { "ollama/qwen3:8b": {}, "openai/gpt-5.1-codex": { "alias": "GPT" } }, "workspace": "/home/rgzn/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto" }, "gateway": { "port": 18789, "mode": "local", "bind": "loopback", "auth": { "mode": "token", "token": "d3f44d798d67a145cbcb0caa5aa9b02de9fdad623384039c" }, "tailscale": { "mode": "off", "resetOnExit": false }, "nodes": { "denyCommands": [ "camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add" ] } }, "meta": { "lastTouchedVersion": "2026.2.17", "lastTouchedAt": "2026-02-19T08:45:16.638Z" }, "models": { "providers": { "ollama": { "baseUrl": "http://172.28.240.1:11434/v1", "apiKey": "ollama-local", "api": "openai-completions", "models": [ { "id": "qwen3:8b", "name": "Qwen3 8B", "reasoning": false, "input": ["text"], "cost": { "input": 0, "output": 0 }, "contextWindow": 131072, "maxTokens": 8192 } ] } } } }

如下图将token替换之前截图保存的

如下图将workspace的中的rgzn替换成对应的名称(命令行@前的内容)

如下图将baseUrl中IP地址修改上面查询到的

 执行如下命令进入配置文件目录

cd ~/.openclaw

备份openclaw.json配置文件,执行如下指令:

mv openclaw.json openclaw.json.bak

执行如下命令修改

nano openclaw.json

 

如需调用云端deepseek的api配置方式如下:

nano ~/.openclaw/openclaw.json
{ "meta": { "lastTouchedVersion": "2026.2.9", "lastTouchedAt": "2026-02-12T00:45:51.950Z" }, "wizard": { "lastRunAt": "2026-02-12T00:45:51.943Z", "lastRunVersion": "2026.2.9", "lastRunCommand": "configure", "lastRunMode": "local" }, "agents": { "defaults": { "model": { "primary": "deepseek/deepseek-chat", "fallbacks": [ "openai/gpt-5.1-codex" ] }, "models": { "deepseek/deepseek-chat": {}, "openai/gpt-5.1-codex": { "alias": "GPT" } }, "workspace": "/home/syh/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto" }, "gateway": { "port": 18789, "mode": "local", "bind": "loopback", "auth": { "mode": "token", "token": "66682db26fe6f1693570085e2009c52bf8a688901aa542fc" }, "tailscale": { "mode": "off", "resetOnExit": false }, "nodes": { "denyCommands": [ "camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add" ] } }, "skills": { "install": { "nodeManager": "npm" } }, "tools": { "web": { "search": { "enabled": false }, "fetch": { "enabled": true } } }, "models": { "providers": { "deepseek": { "baseUrl": "https://api.deepseek.com/v1", "apiKey": "填入你的API KEY", "api": "openai-completions", "models": [ { "id": "deepseek-chat", "name": "DeepSeek Chat", "reasoning": false, "input": ["text"], "cost": { "input": 0.14, "output": 0.28 }, "contextWindow": 128000, "maxTokens": 4096 } ] } } } }

 

 

设置开机自动启动

可以运行以下 PowerShell 命令,查看 AUMID备用

Get-StartApps | Where-Object { $_.Name -like "*Ubuntu*" }


点击创建基本任务

任务命名(名称随意)

选择“计算机启动时”

默认“启动程序”即可

程序或脚本:

explorer.exe

添加参数(红色字体替换成前面查到的AUMID):shell:AppsFolder\CanonicalGroupLimited.Ubuntu24.04LTS_79rhkp1fndgsc!ubuntu2404

点击完成

右键点击任务,点击运行(应该看到ubuntu窗口打开)。

 

设置完成

 

 

Read more

Spring Boot Web 后端开发注解核心

Spring Boot Web 后端开发注解核心

在 Spring Boot Web 后端开发中,注解(Annotation)是核心,它们极大简化了配置、依赖管理、请求映射、数据持久化等。本文将按照功能分类,详细列出常用注解的作用、使用方式、典型场景,并附带简明代码示例,帮助你全面掌握并灵活运用。 文章目录 * 1. 核心启动与配置注解 * 2. 控制器与请求映射注解 * 3. 依赖注入与组件注册注解 * 4. 数据访问(JPA / Spring Data)注解 * 5. 事务管理注解 * 6. 缓存注解 * 7. 异步与定时任务注解 * 8. 异常处理与控制器增强 * 9. 跨域支持注解 * 10. 条件化配置注解(自动配置相关) * 11. 测试注解 * 12. Lombok 常用注解(简化代码)

By Ne0inhk

Flutter 三方库 flutter_google_maps_webservices 的鸿蒙化适配指南 - 让 Google 地图核心 Web 服务深度赋能鸿蒙应用

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 flutter_google_maps_webservices 的鸿蒙化适配指南 - 让 Google 地图核心 Web 服务深度赋能鸿蒙应用 在鸿蒙(OpenHarmony)生态的全球化应用开发中,除了地图呈现(Maps View)外,诸如地理编码(Geocoding)、地点检索(Places)及路线规划(Directions)等 Google 地图核心 Web 服务是不可或缺的动力来源。flutter_google_maps_webservices 做为最成熟的 RESTful 客户端,为鸿蒙开发者提供了在 Dart 层直接调用这些能力的方案。本文将深入实战,探讨如何在鸿蒙系统上构建基于此库的 LBS 体验。

By Ne0inhk

ResNet18入门必看:图像分类WebUI搭建步骤详解

ResNet18入门必看:图像分类WebUI搭建步骤详解 1. 背景与核心价值 1.1 通用物体识别的现实需求 在智能硬件、内容审核、辅助驾驶和智能家居等场景中,通用物体识别是实现环境感知的基础能力。用户上传一张图片,系统需要快速判断其中包含的主要物体或场景类别——这正是ImageNet千类分类任务的核心目标。 传统方案依赖云API(如Google Vision、阿里云视觉),存在网络延迟、调用成本高、隐私泄露风险等问题。而自建模型又常面临“部署复杂、推理慢、模型不稳定”三大痛点。 1.2 为什么选择ResNet-18? ResNet-18作为残差网络(Residual Network)家族中最轻量级的经典结构,在精度与效率之间实现了极佳平衡: * 参数量仅约1170万,模型文件小于45MB,适合边缘设备部署 * 在ImageNet上Top-1准确率超69%,支持1000类常见物体识别 * 结构简洁,易于理解与调试,是深度学习初学者的理想起点 * TorchVision官方维护,接口稳定,无“模型不存在”类报错风险 结合Flask构建WebUI后,可实现零代码

By Ne0inhk
【Linux网络系列】:JSON+HTTP,用C++手搓一个web计算器服务器!

【Linux网络系列】:JSON+HTTP,用C++手搓一个web计算器服务器!

🔥 本文专栏:Linux网络Linux实践系列 🌸作者主页:努力努力再努力wz 💪 今日博客励志语录:别害怕选错,人生最遗憾的从不是‘选错了’,而是‘我本可以’。每一次推倒重来的勇气,都是在给灵魂贴上更坚韧的勋章。 ★★★ 本文前置知识: 序列化与反序列化 引入 在之前的博客中,我详细介绍了序列化 与反序列化 的概念。对于使用 TCP 协议进行通信的双方,由于 TCP 是面向字节流的,在发送数据之前,我们通常需要定义一种结构化的数据来描述传输内容,并以此作为数据的容器。在 C++ 中,这种结构化数据通常表现为对象或结构体。然而,我们不能直接将结构体内存中对应的字节原样发送到另一端,因为直接传递内存字节会引发字节序 和结构体内存对齐 的问题。不同平台、不同编译器所遵循的内存对齐规则可能不同,这可能导致接收方在解析结构体字段时出现错误。 因此,我们需要借助序列化 。序列化 是指将结构化的数据按照预定的规则转换为连续的字节流。其主要目的是屏蔽平台差异,使得位于不同平台的进程能够以统一的方式解析该字节流。序列化通常分为两种形式:文本序列化 与二进制序列化 。 文

By Ne0inhk