OpenClaw 开源个人 AI 智能助理完整部署教程

 OpenClaw 是一款专为个人设备与云服务器、云桌面自建部署设计的开源个人 AI 智能助理,定位主动式 “数字管家”,具备本地长期记忆、多轮上下文对话、真实任务执行等核心能力,可完成文件整理、代码编写、表单自动提交、定时任务等操作,并支持通过 QQ、企业微信等 IM 工具实现跨平台消息提醒与远程交互。在数据隐私可控、部署成本低廉的前提下,一站式覆盖日常使用、学习效率、办公协作等多场景需求,是目前非常适合个人自建使用的本地 AI 助理。
 
步骤 1:开通云桌面服务 想要稳定、长期运行 OpenClaw AI 智能助理,首先需要开通云桌面服务,为 AI 提供 24 小时在线、稳定可靠的运行环境。

步骤 2:选择配置并购买预装 OpenClaw 的云桌面 根据自身使用需求选择云桌面配置,在公共镜像中直接选择已预装 OpenClaw 的镜像,省去复杂环境配置。


步骤 3:官方社区提供了若干需要自行手动配置的步骤,在首次登录云桌面后,在终端中执行如下命令开始配置。


步骤 4:命令运行后会出现风险提示,仔细阅读并确认知晓相关风险后,输入 yes即可继续配置。


步骤 5:首先选择配置模式(Onboarding mode),为了降低初次使用门槛、快速体验 OpenClaw 完整功能,这里我们以快速入门模式(quickstart) 作为演示,新手直接选择该模式即可


步骤 6:接下来选择模型 / 认证提供商(Model/auth provider),为了直观展示配置流程,此处我们选择 Z.AI (GLM 4.7) 作为演示案例。
 选定该提供商后,需完成对应的认证与模型配置:
1.在认证方式(auth method)选项中,选择 Z.AI (GLM 4.7) API key,并准确输入您提前准备好的 Z.AI (GLM 4.7) API 密钥;
2. 对于默认模型(Default model)选项,直接选择 Keep current 即可沿用当前适配的基础模型,无需额外调整。 

步骤 7:选择聊天软件(Select channel):本文以QQ为例,
1.因QQ不在默认配置列表中,需选中“Skip for now”(后续单独配置QQ,切勿选其他聊天软件)并按回车确认;
2.后续技能包(skills)选择No,初次使用可暂不开启额外功能;
3.启用钩子(Enable hooks)选择session-memory,开启记忆功能,支持多轮对话上下文关联。


步骤 8:前往 QQ 开放平台创建机器人并获取信息 进入 QQ 开放平台注册账号,创建个人 QQ 机器人

点击头像管理机器人信息 


步骤9.:在云桌面安装并配置 QQ 机器人插件 在云桌面终端执行命令,安装 QQ 机器人插件并绑定机器人信息


步骤 10:获取 AppID 和 AppSecret 后返回云桌面,执行以下命令安装 QQ Bot 插件

插件安装完成后,通过命令启用 QQ 插件并录入您的 AppID 和 AppSecret;全部配置完成后,在云桌面执行命令重启 Gateway:

步骤11;重启服务,在 QQ 使用 OpenClaw 机器人 执行重启命令使配置生效: openclaw gateway restart 在 QQ 添加机器人好友或拉入群聊,即可通过 QQ 远程控制、使用 AI 助理功能。

关于我们
我是正规云服务器代理商,专注提供稳定、高性价比的云服务与部署方案。 如果你在 OpenClaw 安装部署、云服务器选型、网络配置、AI 工具使用中遇到问题,可以联系我进入官方技术讨论群,和更多玩家一起交流、解决问题。

Read more

AI 大模型落地系列|Eino 组件核心篇:用 Retriever 敲开RAG的大门

AI 大模型落地系列|Eino 组件核心篇:用 Retriever 敲开RAG的大门

声明:本文数据源于官方文档与官方实现,重点参考 Retriever 使用说明、components/retriever/interface.go、components/retriever/option.go 为什么很多人会用 Retriever,却没真正看懂 Retrieve * 1. Retriever 真正解决的,不只是“搜一下” * 2. Retrieve 动作的核心 * 3. 不要对公共 Option 理解,局限于几个小参数 * 3.1 `Index` * 3.2 `SubIndex` * 3.3 `TopK` * 3.4 `ScoreThreshold` * 3.5 `Embedding` * 3.6 不止公共 option,具体实现还能继续扩展

一文搞懂MCP、Agent、Skills:AI时代三大核心概念深度对比,搞懂了少走3年弯路

一文搞懂MCP、Agent、Skills:AI时代三大核心概念深度对比,搞懂了少走3年弯路

先搞懂MCP:一个容易混淆的术语 MCP有两个不同的含义 很多人看到"MCP"就懵了,因为这个缩写在AI领域有两个完全不同的含义: 含义1:Model Context Protocol(Anthropic提出的开放协议) 官方定义: MCP是Anthropic在2024年11月发布的开放协议,让AI应用能够标准化地连接数据源和工具。 大白话解释: 就像USB接口统一了设备连接标准一样,MCP统一了AI应用与工具之间的连接方式。 之前的问题: * ChatGPT要接入Google搜索,需要专门写代码 * Claude要接入同样的搜索,又要重新写一遍 * 每个AI应用都要为每个工具写专门的对接代码 有了MCP: * 工具开发者按MCP标准开发一次 * 所有支持MCP的AI应用都可以直接使用 * 就像插USB设备一样简单 这才是当前AI社区讨论最多的"MCP"! ✅ 含义2:Control Plane(AI系统的控制层) 有些文章会把AI系统的控制层也叫"MCP"(Model Control Plane),但这不是标准术语。 更准确的叫法是: * O

2026年3月17日人工智能早间新闻

各位读者,早上好。今天是2026年3月17日,星期二。欢迎收看人工智能早间新闻。昨日,“AI春晚”英伟达GTC大会在圣何塞盛大开幕,黄仁勋以“万亿美元豪言”震撼全场,从太空数据中心到“安全养虾”平台,勾勒出AI基础设施竞赛的新蓝图。与此同时,国内产业端同样热闹非凡,阿里巴巴进军企业AI代理,AI硬件与应用生态加速融合。 一、全球焦点:英伟达GTC震撼开幕,黄仁勋豪言万亿美元新目标 当地时间3月16日,备受瞩目的英伟达GTC 2026年度技术大会在美国加州圣何塞正式拉开帷幕。英伟达CEO黄仁勋在主题演讲中释放一系列重磅信号,为未来数年的AI算力发展定调。 1. 万亿美元营收目标引爆市场:黄仁勋在演讲中表示,预计到2027年底,英伟达新一代AI加速芯片架构Blackwell与下一代Rubin产品将创造至少1万亿美元收入。这一数字远超2025年10月给出的5000亿美元预测,凸显AI基础设施投资浪潮仍在快速扩张。受此刺激,英伟达股价一度直线拉升近5%,最终收涨1.65%,带动纳指大涨1.22%。 2. 太空计算时代开启:Space-1 Vera Rubin模块发布:英伟达推出Spa

Stable Diffusion显存管理技术解析与优化实践

Stable Diffusion显存管理技术解析与优化实践 【免费下载链接】sd-webui-memory-releaseAn Extension for Automatic1111 Webui that releases the memory each generation 项目地址: https://gitcode.com/gh_mirrors/sd/sd-webui-memory-release 在AI绘画创作过程中,显存管理问题常常成为影响创作体验的关键因素。许多用户在连续生成图像时会遇到显存不足的困扰,这不仅打断了创作流程,还可能造成时间与精力的浪费。针对这一痛点,SD WebUI Memory Release扩展应运而生,为创作者提供了专业的显存管理解决方案。 技术原理深度剖析 显存占用机制解析 现代深度学习框架在执行推理任务时,会在显存中缓存中间计算结果和模型权重。这种缓存机制虽然能提升计算效率,但在连续生成场景下容易导致显存碎片化和内存泄漏问题。具体表现为: * 计算图缓存:PyTorch框架为优化计算性能而保留的计算图结构 * 模型权重驻留:加载的检