OpenClaw 实战部署:用一台旧 Surface Pro 打造 7×24 私人 AI 助手

OpenClaw 实战部署:用一台旧 Surface Pro 打造 7×24 私人 AI 助手

OpenClaw 实战部署:用一台旧 Surface Pro 打造 7×24 私人 AI 助手

OpenClaw 是 2026 年最火的开源 AI 助手平台之一——它不只是一个聊天机器人框架,而是一个完整的 AI Agent 操作系统:支持飞书 / Web / IM 多渠道接入,内置工具调用(function calling)、技能系统(Skills)、记忆管理、多 Agent 协作,还能接入任意 OpenAI 兼容的大模型。

我手上有一台 2017 年的 Surface Pro 5,Windows 已经卡得没法用。与其吃灰,不如装个 Ubuntu 把它变成一台低功耗的 AI 服务器——7×24 小时运行 OpenClaw,随时随地通过 IM 和网页与我的 AI 助手对话。

本文是一份从零到可用的完整实战记录:从准备硬件环境,到部署 OpenClaw + 阿里云 Qwen3 模型、接入 IM 渠道、开发自定义 Skill,全程约 5 小时。

目录


1. 为什么选 OpenClaw?

2026 年初,AI 助手平台百花齐放。在对比了多个方案后,我选择了 OpenClaw,原因如下:

特性OpenClaw其他方案(Dify / LobeChat 等)
多渠道接入飞书 / Web UI / IM / API大多只有 Web UI
工具调用原生支持 exec(可运行任意 bash 命令)需要额外开发插件
技能系统Markdown 定义 Skill,零代码扩展能力需要写代码或配置 workflow
模型自由接入任意 OpenAI 兼容 API(DashScope、Ollama 等)部分锁定特定模型
部署方式npm install -g 一条命令,轻量无 Docker 依赖多数需要 Docker Compose
资源占用仅调用云端 API,本地只跑 Node.js 网关(~50MB 内存)本地推理需要 GPU
开源MIT 协议,完全开放部分功能闭源

核心吸引力:OpenClaw 的 Skill 系统 + exec 工具让 AI 不再只是"会聊天"——它可以读取服务器状态、查温度、看磁盘、甚至执行自定义脚本。它不是玩具,是真正可以干活的 AI 助手。


2. 硬件与系统准备

这一章是为 OpenClaw 准备运行环境。如果你已经有一台 Linux 服务器或 VPS,可以直接跳到 第 3 章:安装 OpenClaw

2.1 我的硬件:Surface Pro 5

项目规格
CPUIntel Core i5-7300U @ 2.60GHz(双核四线程)
内存8GB LPDDR3
存储TOSHIBA NVMe 256GB
GPUIntel HD Graphics 620(核显)
屏幕12.3 英寸 2736×1824
发布年份2017 年

这台机器跑 Windows 10 已经非常吃力——开几个 Chrome 标签页内存就飙到 90%,没有风扇的 Surface 直接歇菜。但跑 OpenClaw 只需要 Node.js 网关 + 网络连接,完全没问题。

2.2 安装 Ubuntu 22.04

为什么用 Ubuntu 而不是 Windows? OpenClaw 在 Linux 下的 exec 工具能直接调用 bash 命令读取系统信息,而且 Ubuntu 资源占用远低于 Windows,非常适合当 7×24 小时服务器。

准备工作
Surface Pro BIOS 设置

Surface 的 BIOS 叫 UEFI,进入方式比较特殊:

  1. 完全关机
  2. 按住音量+键不放,同时按一下电源键
  3. 看到 Surface 标志后松开音量+键
  4. 修改 Boot Configuration → 拖动 USB Storage 到第一位
  5. Secure Boot → 设为 Disabled
Surface Pro 的触摸屏在 UEFI 里可以用,直接拖拽排序。
安装分区方案
分区大小挂载点类型
EFI300MB/boot/efiFAT32
系统剩余全部/ext4
Swap等于内存 (8GB)swapswap
Surface 专用内核(推荐)

Ubuntu 默认内核对 Surface 的触摸屏、WiFi 支持不完美,安装 linux-surface 内核可以显著改善:

# 添加 linux-surface 仓库wget -qO - https://raw.githubusercontent.com/linux-surface/linux-surface/master/pkg/keys/surface.asc \| gpg --dearmor |sudotee /etc/apt/trusted.gpg.d/linux-surface.gpg > /dev/null echo"deb [arch=amd64] https://pkg.surfacelinux.com/debian release main"\|sudotee /etc/apt/sources.list.d/linux-surface.list sudoapt update sudoaptinstall linux-image-surface linux-headers-surface libwacom-surface sudoupdate-grub&&sudoreboot
基础优化
sudoapt update &&sudoapt upgrade -y sudoaptinstall -y curlwgetgitvimhtop lm-sensors net-tools sudo sensors-detect # 初始化温度传感器sudo timedatectl set-timezone Asia/Shanghai 

2.3 配置 SSH 远程管理

配好 SSH 之后,Surface Pro 就可以合上盖子放在角落,用其他电脑远程操作了——这才是跑 OpenClaw 的正确姿势。

# 安装 SSHsudoaptinstall -y openssh-server sudo systemctl enablessh&&sudo systemctl start ssh# 主力电脑上配置密钥登录 ssh-keygen -t ed25519 -C "[email protected]" ssh-copy-id [email protected] 
建议在路由器上给 Surface Pro 绑定固定 IP(如 192.168.31.49),方便后续 Nginx 和 IM 渠道配置。

2.4 安装 Node.js 22

OpenClaw 强制要求 Node.js v22+:

curl -fsSL https://deb.nodesource.com/setup_22.x |sudo -E bash - sudoapt-getinstall -y nodejs node -v # 确认 v22.x

3. 安装 OpenClaw

这是最激动人心的部分——三条命令就能把 AI 助手跑起来。

3.1 克隆安装工具

git clone https://github.com/miaoxworld/OpenClawInstaller.git cd OpenClawInstaller chmod +x install.sh config-menu.sh 

3.2 运行安装脚本

./install.sh 

安装脚本会自动完成:

  1. 检测系统环境并安装依赖
  2. 通过 npm 安装 OpenClaw(npm install -g openclaw
  3. 引导核心配置(AI 模型、身份信息)
  4. 测试 API 连接
  5. 启动 OpenClaw Gateway 服务

3.3 核心目录结构

安装完成后,所有配置位于 ~/.openclaw/

~/.openclaw/ ├── openclaw.json # 🔑 核心配置(模型、渠道、网关) ├── env # 🔑 环境变量(API Key、代理) ├── workspace/ # 🧠 AI 人设与能力定义 │ ├── SOUL.md # 人格定义 │ ├── IDENTITY.md # 身份信息 │ ├── TOOLS.md # 工具能力备忘(关键!) │ ├── AGENTS.md # Agent 行为准则 │ └── USER.md # 用户信息 └── skills/ # ⚡ 自定义技能目录 └── system_info/ # 示例 Skill 
OpenClaw 的设计哲学:一切皆文件。修改 Markdown 就能改变 AI 的人格、能力和行为,不需要写一行代码。

4. 接入阿里云 Qwen3 大模型

OpenClaw 支持任何 OpenAI 兼容的 API。阿里云 DashScope 的 Qwen3 系列是国内最好的选择之一——免费额度充足,延迟低,模型能力强。

4.1 获取 API Key

  1. 访问 阿里云 DashScope 控制台
  2. 开通 DashScope 服务(有免费额度)
  3. 在「API-KEY 管理」中创建 API Key

4.2 配置环境变量

编辑 ~/.openclaw/env

# 阿里云 DashScope (Qwen) — 兼容 OpenAI 格式exportOPENAI_API_KEY=sk-your-api-key-here exportOPENAI_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 
关键点:DashScope 提供 compatible-mode/v1 端点,OpenClaw 直接把它当 OpenAI Provider 用。如果你的 IM 渠道需要网络代理,也可以在 env 文件中配置 HTTP_PROXY 等环境变量。

4.3 在 openclaw.json 中注册模型

~/.openclaw/openclaw.jsonmodels.providers 中添加自定义 Provider:

{"models":{"providers":{"openai-custom":{"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1","apiKey":"sk-your-api-key-here","models":[{"id":"qwen3-14b","name":"Qwen3-14B Dense","api":"openai-completions","reasoning":false,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":131072,"maxTokens":8192},{"id":"qwen3-32b","name":"Qwen3-32B Dense","api":"openai-completions","reasoning":false,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":131072,"maxTokens":8192},{"id":"qwen3-4b","name":"Qwen3-4B (轻量)","api":"openai-completions","reasoning":false,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":131072,"maxTokens":8192}]}}}}
可选模型:Qwen3 系列还有 qwen3-235b-a22b(MoE)、qwen3-vl-flash(视觉)、qwen3-omni-flash(全模态语音)等。

4.4 设置默认模型

{"agents":{"defaults":{"model":{"primary":"openai-custom/qwen3-14b"},"models":{"openai-custom/qwen3-4b":{},"openai-custom/qwen3-14b":{},"openai-custom/qwen3-32b":{}}}}}

命令行切换:

source ~/.openclaw/env openclaw models set"openai-custom/qwen3-14b" openclaw models list # 确认当前模型

4.5 验证连接

source ~/.openclaw/env openclaw agent --agent main --message "你好,你是什么模型?"

如果返回正常回复,说明 OpenClaw + Qwen3 已经跑通了!


5. 接入 IM 渠道:随时随地对话

这是 OpenClaw 最实用的功能之一——通过 IM(即时通讯)渠道,随时随地和你的 AI 助手对话,不受局域网限制。

OpenClaw 支持多种 IM 渠道接入,包括飞书、企业微信等。以飞书为例:

5.1 创建飞书机器人

  1. 飞书开放平台 创建应用
  2. 获取 App ID 和 App Secret
  3. 配置消息接收地址

5.2 配置 OpenClaw

~/.openclaw/openclaw.json 中启用对应的 IM 渠道:

{"channels":{"your-im-channel":{"enabled":true,"dmPolicy":"pairing","botToken":"你的 Bot Token","streamMode":"partial"}},"plugins":{"entries":{"your-im-channel":{"enabled":true}}}}
dmPolicy 说明"pairing" = 首次对话需配对确认(更安全);"open" = 任何人可直接对话。

5.3 启动并配对

source ~/.openclaw/env openclaw gateway --force 

向你的 Bot 发送任意消息,按提示完成配对。配对成功后就可以正常对话了——无论你在家、在公司、还是在路上,AI 助手都在线。


6. Nginx HTTPS:局域网 Web UI 访问

OpenClaw 自带一个功能丰富的 Control UI(Web 聊天界面),默认监听 127.0.0.1:18789。通过 Nginx 反向代理,可以让局域网内的手机、平板、其他电脑都能访问。

6.1 生成自签名 SSL 证书

sudomkdir -p /etc/nginx/ssl sudo openssl req -x509 -nodes -days 365 -newkey rsa:2048 \ -keyout /etc/nginx/ssl/openclaw.key \ -out /etc/nginx/ssl/openclaw.crt \ -subj "/CN=192.168.31.49"

6.2 配置 Nginx

创建 /etc/nginx/sites-available/openclaw

server { listen 7860 ssl; server_name 192.168.31.49; ssl_certificate /etc/nginx/ssl/openclaw.crt; ssl_certificate_key /etc/nginx/ssl/openclaw.key; # HTTP 请求代理 location / { proxy_pass http://127.0.0.1:18789; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection "upgrade"; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; proxy_read_timeout 86400; } # ⚠️ WebSocket 连接自动注入 token(关键!) location /ws { proxy_pass http://127.0.0.1:18789/ws?token=你的token; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection "upgrade"; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; proxy_read_timeout 86400; } } 

启用并重启:

sudoln -s /etc/nginx/sites-available/openclaw /etc/nginx/sites-enabled/ sudo nginx -t &&sudo systemctl reload nginx 

6.3 配置 OpenClaw 允许外部来源

openclaw.json 中:

{"gateway":{"mode":"local","controlUi":{"allowedOrigins":["https://192.168.31.49:7860"]},"auth":{"token":"你的token"},"trustedProxies":["127.0.0.1"]}}

现在打开 https://192.168.31.49:7860,就能在局域网内任何设备上使用 OpenClaw Web UI 了。


7. 自定义 Workspace:让 AI 有灵魂

OpenClaw 最独特的设计之一就是 Workspace 文件系统——通过几个 Markdown 文件,你可以完全定义 AI 的人格、知识和能力边界。这不是简单的 system prompt,而是一套结构化的 AI 行为框架。

7.1 SOUL.md — 定义人格

这是 AI 的"灵魂",决定了它怎么说话、怎么思考:

# 我是谁 我是 cw 的私人AI助手,基于阿里云 Qwen3 系列模型运行,默认使用 qwen3-14b。 通过 OpenClaw 平台运行,支持 IM 和网页端聊天。 ## 性格 - 友好、简洁、实用 - 用中文回复 - 不啰嗦,直接给出答案 ## 能力 - 可以用 `exec` 工具执行 bash 命令,读取本机硬件/软件信息 - 当用户问电脑配置、品牌、温度、磁盘等问题时,直接执行命令获取真实数据 - 参考 TOOLS.md 中的命令速查表 ## 规则 - 诚实回答,不确定的事情就说不确定 - 涉及隐私信息时要谨慎 - 能用工具获取真实数据时,不要给"请自行查询"的回答 

7.2 IDENTITY.md — 身份卡片

名字:AI 助手 主人:cw 语言:中文 当前模型:qwen3-14b 时区:Asia/Shanghai 

7.3 TOOLS.md — 工具能力备忘(关键文件!)

这是让 AI 知道"自己能做什么"的核心文件。OpenClaw 在每次会话开始时会读取 TOOLS.md,如果里面没有提及某种能力,AI 就不知道自己可以做。

# TOOLS.md - 本地工具备忘 ## 系统信息采集 (system_info skill) 我可以直接读取这台电脑的硬件和软件信息。 ### 一键完整报告 bash ~/.openclaw/skills/system_info/gather_info.sh ### 常用单项命令 - 电脑品牌/型号: cat /sys/devices/virtual/dmi/id/board_vendor - CPU 型号: grep -m1 'model name' /proc/cpuinfo - 内存: free -h - 磁盘: df -h - 实时温度: sensors - 网络 IP: hostname -I ## 本机信息速查 - 设备: Microsoft Surface Pro - CPU: Intel Core i5-7300U @ 2.60GHz - 内存: 8GB - 系统: Ubuntu 22.04.3 LTS 
设计巧思TOOLS.md 底部的"本机信息速查"是一个双保险——即使模型不主动调用 exec 工具,它也能直接从这里读取基本信息回答用户。这对小模型尤其有用。

8. 开发自定义 Skill:AI 能力无限扩展

Skill 系统是 OpenClaw 的杀手级特性。 你可以用一个 Markdown 文件 + 一个 Shell 脚本,就给 AI 增加一种全新的能力——不需要改一行 OpenClaw 源码。

8.1 Skill 的工作原理

🧑 用户提问
电脑什么牌子?

🔍 OpenClaw
匹配 Skill 描述

📖 AI 读取
SKILL.md

⚡ AI 调用 exec
执行 bash 命令

📊 返回真实数据
Microsoft Surface Pro

当用户的问题匹配到 Skill 的 description 字段时,OpenClaw 会自动把对应的 SKILL.md 注入到 AI 的上下文中,AI 就知道该执行什么命令了。

8.2 实战:创建 system_info Skill

这个 Skill 让 AI 能读取本机的硬件、软件、温度、网络等信息。

创建目录
mkdir -p ~/.openclaw/skills/system_info 
编写采集脚本 gather_info.sh
#!/bin/bash# 系统信息采集脚本 - OpenClaw system_info Skillsection(){echo -e "\n━━━━━━━━━━━━━━━━━━\n$1\n━━━━━━━━━━━━━━━━━━";}# 操作系统 section "🖥️ 操作系统". /etc/os-release &&echo" 发行版: $PRETTY_NAME"echo" 内核: $(uname -r)"echo" 运行时长: $(uptime -p)"# CPU section "⚡ CPU"grep -m1 'model name' /proc/cpuinfo |cut -d: -f2 |xargsecho" 核心: $(nproc) 负载: $(cat /proc/loadavg |awk'{print $1,$2,$3}')"# 内存 section "🧠 内存"free -h |grep'^Mem:'# GPU section "🎮 GPU" lspci |grep -i 'vga\|3d'|head -1 # 磁盘 section "💾 磁盘"df -h |grep'^/dev/'# 温度(联动 temp_monitor 服务) section "🌡️ 温度历史"tail -5 ~/Desktop/1_monitor/temp_monitor/temp_data.csv # ... 更多模块:网络、主板、软件环境、服务状态、监听端口等
编写 SKILL.md
--- name: system_info description: 获取本机硬件和软件信息,包括 CPU、内存、GPU、磁盘、网络、温度历史、已安装软件和运行中的服务。当用户询问电脑配置、系统状态、硬件信息、温度趋势等问题时使用此技能。 metadata: { "openclaw": { "emoji": "🖥️", "requires": { "bins": ["bash"] } } } --- # 系统信息采集 ## 完整报告 运行:`bash ~/.openclaw/skills/system_info/gather_info.sh` ## 按需查询 - CPU: `grep 'model name' /proc/cpuinfo | head -1` - 内存: `free -h` - 磁盘: `df -h` - 温度: `sensors` - 温度历史: `tail -10 ~/Desktop/1_monitor/temp_monitor/temp_data.csv` ## temp_monitor 集成 历史数据: `~/Desktop/1_monitor/temp_monitor/temp_data.csv` 格式: `时间戳,CPU封装温度,Core0,Core1,PCH,NVMe,电池电压,CPU使用率,内存使用率` 

8.3 验证 Skill

source ~/.openclaw/env openclaw skills list 

输出中应能看到:

✓ ready │ 🖥️ system_info │ 获取本机硬件和软件信息... │ openclaw-managed 

8.4 效果展示

在 IM 中问 AI “电脑是什么牌子的?硬件配置是什么?电池状态是什么样的?”,AI 通过 exec 工具执行命令,返回了完整的真实数据:

您的电脑品牌是 Microsoft Corporation(微软公司), 具体型号为 Microsoft Surface Pro。 以下是部分关键配置: - 处理器:Intel Core i5-7300U @ 2.60GHz(4核4线程) - 内存:8GB - 存储:TOSHIBA NVMe 256GB - 系统:Ubuntu 22.04.3 LTS - 电池健康度:96.51%(充放电 6 次) - CPU 温度:30°C(正常范围) 

可以看到,AI 不是在"编答案"——它是真的执行了系统命令,读取了品牌型号、CPU、内存、磁盘、GPU、电池健康度、温度等真实数据。连电池充放电次数(6 次)和健康度(96.51%)都能精确报告。这就是 OpenClaw Skill 系统 + exec 工具的威力。

8.5 Skill 开发的无限可能

system_info 只是一个起点。基于同样的模式,你可以开发:

Skill功能实现思路
weather天气查询调用天气 API
data_monitor数据监控读取外部 API 或本地监控数据
file_search文件搜索执行 find / grep 命令
docker_managerDocker 管理执行 docker ps / docker logs
smart_home智能家居控制调用 Home Assistant API
Skill 的精髓:Markdown 定义触发条件 + Shell 脚本实现逻辑,AI 作为中间调度层。

9. 模型选型:Qwen3 4B / 14B / 32B 实测对比

同一个问题"电脑是什么牌子的",测试 OpenClaw 搭配三个 Qwen3 模型的表现:

维度qwen3-4bqwen3-14bqwen3-32b
回答质量❌ “我无法获取,请自行查询”✅ 直接给出品牌和配置✅ 直接给出品牌和配置
工具调用不会调用 exec正确读取 TOOLS.md 并执行命令正确读取 TOOLS.md 并执行命令
Skill 匹配不会触发正确匹配 system_info正确匹配 system_info
响应时间~12 秒~18 秒~25 秒
适用场景简单闲聊日常使用(推荐)复杂推理

结论qwen3-14b 是 OpenClaw 的最佳搭档——具备完整的工具调用和 Skill 匹配能力,响应速度可接受。4B 太小,无法理解 OpenClaw 的 function calling 协议。32B 能力更强但延迟明显增加,适合需要深度推理的场景。


10. 踩坑记录与最佳实践

坑 1:4B 模型完全不会用工具

现象:Qwen3-4B 面对任何需要 exec 的问题,只会给出"通用指导"(“您可以通过 lshw 命令查看…”)。

原因:4B 参数量太小,无法理解 OpenClaw 的工具调用协议(function calling)。

解决:换 14B 或更大的模型。同时在 TOOLS.md 中写"本机信息速查"作为兜底。

坑 2:网络代理配置要排除阿里云

现象:API 请求超时或被拒绝。

原因:如果服务器配置了网络代理,NO_PROXY 没有排除 dashscope.aliyuncs.com,导致阿里云 API 请求也走了代理。

解决:在环境变量中排除阿里云域名:

exportNO_PROXY=localhost,127.0.0.1,dashscope.aliyuncs.com 

坑 3:TOOLS.md 必须写明能力

现象:已经配好了 system_info Skill,但 AI 仍然不会主动调用。

原因:OpenClaw 每次会话开始时读取 TOOLS.md,如果里面没有提及系统信息能力,AI 就不知道自己可以执行命令。

解决:在 TOOLS.md 中显式写出命令列表和本机基本信息。

坑 4:Nginx WebSocket 要注入 token

现象:Web UI 能打开但无法连接到 AI 后端。

原因:OpenClaw Control UI 通过 WebSocket 连接网关,需要 auth token。浏览器端不会自动带上 token。

解决:在 Nginx 的 /ws location 中将 token 拼接到 proxy_pass URL:

proxy_pass http://127.0.0.1:18789/ws?token=你的token; 

坑 5:新 Skill 需要重启 Gateway

现象:创建了 Skill 目录但 openclaw skills list 看不到。

解决

source ~/.openclaw/env openclaw gateway --force # 注意不是 openclaw restart

最佳实践总结

实践说明
TOOLS.md 写速查表即使模型不调用工具也能从文本中读取信息
SOUL.md 写明能力边界显式告诉 AI “你可以执行命令”,防止它客气地说"请自行查询"
14B 起步4B 无法 function calling,14B 是最低可用线
NO_PROXY 排除国内 API如配置了代理,阿里云域名需排除
固定局域网 IPNginx / SSH / IM 配置都依赖稳定 IP

11. 时间线与未来计划

部署时间线

时间里程碑
2026-02-08 17:00安装 OpenClaw,配置阿里云 DashScope API
2026-02-08 17:30接入 IM 渠道,实现手机端远程对话
2026-02-08 18:00配置 Nginx HTTPS 反向代理,局域网 Web UI 可访问
2026-02-08 18:30自定义 Workspace(SOUL.md / IDENTITY.md / TOOLS.md)
2026-02-08 19:00测试 Qwen3 模型(4B / 14B / 32B),确定 14B 为默认
2026-02-08 20:00开发数据监控脚本 + 飞书推送(联动 OpenClaw 生态)
2026-02-08 21:00开发 system_info Skill,AI 可读取本机硬件/软件信息
2026-02-08 21:30模型对比实测:验证 14B 的工具调用能力
2026-02-08 22:00整理项目结构,初始化 Git 仓库,撰写本文
从零到功能完备的 OpenClaw 私人 AI 助手,总计约 5 小时

未来计划

近期(1-2 周)
  • 更多 Skill:天气查询、日程管理、文件搜索
  • 记忆系统:配置 MEMORY.md,让 AI 记住偏好和历史上下文
  • Heartbeat 定时任务:AI 主动推送天气预报、日历提醒
  • 数据监控 Skill:通过 IM 直接问 AI 获取实时监控数据
中期(1-2 月)
  • 飞书双向联动:让 AI 同时在多个 IM 渠道响应消息
  • MCP Server 集成:通过 Model Context Protocol 接入更多外部工具
  • 多 Agent 协作:Coding Agent、Research Agent 等专业子 Agent
  • 语音交互:接入 Qwen3-Omni 实现语音输入/输出
长期愿景
  • Home Assistant 联动:AI 控制智能家居
  • 知识库 RAG:私有文档库问答
  • 自动化工作流:AI 监控邮件 / 代码仓库 / 服务器,异常自动处理并通知
  • 迁移到专用服务器:从 Surface Pro 迁移到 NAS 或云服务器

参考链接


环境信息:Ubuntu 22.04.3 LTS / Surface Pro (i5-7300U, 8GB) / OpenClaw 2026.2.6 / Qwen3-14B

撰写日期:2026 年 2 月 8 日

如有问题欢迎评论交流!

Read more

吃透 C++ 栈和队列:stack/queue/priority_queue 用法 + 模拟 + STL 标准实现对比

吃透 C++ 栈和队列:stack/queue/priority_queue 用法 + 模拟 + STL 标准实现对比

✨ 孤廖:个人主页 🎯 个人专栏:《C++:从代码到机器》 🎯 个人专栏:《Linux系统探幽:从入门到内核》 🎯 个人专栏:《算法磨剑:用C++思考的艺术》 折而不挠,中不为下 文章目录 * 正文: * 容器适配器 * STL标准库中stack和queue的底层结构 * deque的简单介绍(了解) * deque的缺陷 * 为什么选择deque作为stack和queue的底层默认容器 * stack的介绍和使用 * Satck的介绍 * Stack的使用 * stack的模拟实现 * queue的介绍和使用 * queue的介绍 * queue的使用 * queue的模拟实现 * priority_queue的介绍和使用 * priority_queue的介绍 * priority_queue的使用 * 在OJ中的使用 * priority_queue的模拟实现 * STL标准库中对于sta

By Ne0inhk
【C++:搜索二叉树】二叉搜索树从理论到实战完全解读:原理、两种场景下的实现

【C++:搜索二叉树】二叉搜索树从理论到实战完全解读:原理、两种场景下的实现

🔥艾莉丝努力练剑:个人主页 ❄专栏传送门:《C语言》、《数据结构与算法》、C/C++干货分享&学习过程记录、Linux操作系统编程详解、笔试/面试常见算法:从基础到进阶、测试开发要点全知道 ⭐️为天地立心,为生民立命,为往圣继绝学,为万世开太平 🎬艾莉丝的简介: 🎬艾莉丝的C++专栏简介: 目录 C++的两个参考文档 前言 1  ~>  理解二叉搜索树 1.1  二叉搜索树的概念 1.2  博主手记:核心特性 1.2.1  多元化的结构: 灵活的数据结构 1.2.2  天然的搜索优势:擅长搜索的数据结构 2  ~>  二叉搜索树性能分析 2.

By Ne0inhk
【C++贪心 DFS】2673. 使二叉树所有路径值相等的最小代价|1917

【C++贪心 DFS】2673. 使二叉树所有路径值相等的最小代价|1917

本文涉及知识点 C++贪心 反证法 决策包容性 C++DFS LeetCode2673. 使二叉树所有路径值相等的最小代价 给你一个整数 n 表示一棵 满二叉树 里面节点的数目,节点编号从 1 到 n 。根节点编号为 1 ,树中每个非叶子节点 i 都有两个孩子,分别是左孩子 2 * i 和右孩子 2 * i + 1 。 树中每个节点都有一个值,用下标从 0 开始、长度为 n 的整数数组 cost 表示,其中 cost[i] 是第 i + 1 个节点的值。每次操作,你可以将树中 任意 节点的值

By Ne0inhk
C++socket网络编程——udp服务器

C++socket网络编程——udp服务器

目录 一.端口号 VS  PID 二.套接字编程的类型 三.socket编程接口 四.基于udp的服务端和客户端全部代码 客户端 服务端 五.解释与运行 一些细节: 六.总结 一.端口号 VS  PID pid已经能够标识一台主机上的一个唯一一个进程了,为什么还需要端口号? 1. 不是所有的进程都需要网络通信,但是所有的进程都需要都pid; 2. 系统和网络功能解耦。         另外,一个进程可以绑定多个端口,但一个端口只能被一个进程绑定。         系统内定的端口号【0,1023】一般都要有固定的应用层协议使用,如http:80,https:443。 二.套接字编程的类型 1. 域间套接字编程——同一个机器内 2. 原始套接字编程——网络工具 3. 网络套接字编程—

By Ne0inhk