openclaw喂饭教程!在 Linux 环境下快速完成安装、初始化与 Web UI 配置

openclaw喂饭教程!在 Linux 环境下快速完成安装、初始化与 Web UI 配置

前言

OpenClaw 是一款开源的 AI Agent 工具,但对第一次接触的用户来说,完整跑通流程并不直观。本文以 Linux 环境为例,详细记录了 OpenClaw 的安装、初始化流程、模型选择、TUI 使用方式,以及 TUI 与 Web UI 认证不一致导致的常见问题与解决方法,帮助你最快速度把 OpenClaw 真正跑起来

环境准备

1)安装nodejs

curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash - sudo apt install -y nodejs 
> node --version v22.22.0 

2)安装openclaw

npm install -g openclaw@latest 
> openclaw --version 2026.2.25 

初始化openclaw

openclaw onboard --install-daemon 
  • 为了快速跑起来,先选择QuickStart
    • 有为老哥提出疑问:为什么没有支付宝或者手机之类的登陆方式呢?因为openclaw 作为一个开源工具,其默认的 Qwen 配置(qwen-portal)通常指向国际版 API,国际版显然没有支付宝、国内手机号直接登录等登陆方式,取而代之的是Google 账号、GitHub 账号等,如果没有账号,注册一个账号即可
    • 选择Qwen也是因为门槛地,快速上手,国际版往往提供针对开发者的免费试用额度(如每天 2000 次请求)
    • 后面可以换模型供应商,所以当前的目标是快速搭建并且跑通流程,所以选择Qwen。继续…
    • Set GOOGLE_PLACES_API_KEY for goplaces,是否要选择Google Places API 来查询现实世界中的地点信息(比如电影院、餐馆等),首先是不能使用google服务,并且不在我们本文的流程中,暂时不需要,选否
    • Set GEMINI_API_KEY for nano-banana-pro,询问你是否要为名为 nano-banana-pro 设置 Google Gemini API 密钥,问题还是不能使用google的服务,选否。至于nano-banana-pro是什么东西,我也不知道…
    • Set NOTION_API_KEY for notion?,配置notion的使用权限,notion是什么?Notion 是一款集笔记、文档、任务管理、数据库和协作于一体的“超级办公室”软件。用不上,选否
    • Set ELEVENLABS_API_KEY for sag?,让openclaw说话,而不是只有文字交流,而说话的能力正是ElevenLabs赋予的,它提供的服务是目前行业内领先的文本转语音(Text-to-Speech, TTS)平台。其生成的语音非常自然、富有情感,听起来几乎和真人一样。不在当前流程,先选否

配置完成,回归测试一下

watermarked-openclaw_14

能说中文啊,那就更简单了,现在需要告诉配置初始化一下这个机器人,就像星级穿越里面,男主重新配置TAS一样

watermarked-openclaw_13

这是终结者要来了吗?斯瓦辛格从天而将,并且bgm:”洞洞咚,懂冻,洞洞咚,懂洞咚“

watermarked-openclaw_11

斯瓦辛格能不能说中文阿?

watermarked-openclaw_12

到此基本配置已经结束,下一步问你怎么孵化小机器人,直接选择推荐的方式,使用tui(terminal ui)完成最后一步

watermarked-openclaw_10

下一步询问你是否要启用 Hooks(钩子/插件),选择session-memory,让 AI “记住”之前的对话内容或项目上下文,即使你关闭了终端再重新打开,它也能延续之前的话题

watermarked-openclaw_9

下面的全选否

watermarked-openclaw_8

同样,先跳过,后面再来配置

watermarked-openclaw_7

选择是否配置skills,是

watermarked-openclaw_6

下一步,选择渠道,这里先跳过,因为这一步后面会详细描述,这里的目标还是先完成安装并且跑通

watermarked-openclaw_5

完成登陆之后回到控制台,选择具体模型,选择默认的即可

watermarked-openclaw_4

选择完成之后,会在浏览器弹出登陆页面

watermarked-openclaw_3

选择模型提供商,为了快速测试,这里直接选择Qwen方便快速跑通流程

watermarked-openclaw_2

安装完成

页面配置

watermarked-openclaw_15

为什么tui配置成功了,在webui却一直报错,因为tui和webui使用的是两套完全独立的认证系统

需要把token给应用在页面上就可以了

1)获取token

> cat ~/.openclaw/openclaw.json | grep -o '"token": "[^"]*"' "token": "7da3f004ff2a1e700f229a87fb5ea12c150b37d58199295f" 

2)将参数补充在页面上,token=7da3f004ff2a1e700f229a87fb5ea12c150b37d58199295f

watermarked-openclaw_16

注:如果访问http://127.0.0.1:18789/会有自动跳转,那使用&将参数补充在后面即可

页面也正常了,并且把之前在控制台的聊天记录也同步过来了

总结

本文在linux下实现了安装openclaw,并且完成了基本流程的搭建,至于后面发掘openclaw的更多功能,敬请期待

联系我

  • 联系我,做深入的交流
在这里插入图片描述

至此,本文结束
在下才疏学浅,有撒汤漏水的,请各位不吝赐教…

Read more

论文阅读|ArxiV 2025|大模型微调综述|A Survey on Federated Fine-Tuning of Large Language Models

论文阅读|ArxiV 2025|大模型微调综述|A Survey on Federated Fine-Tuning of Large Language Models

论文地址:https://arxiv.org/pdf/2503.12016 相关最新研究动态:https://github.com/Chen-Yang-Liu/Awesome-RS-SpatioTemporal-VLMs 文章目录 * 0.综述结构 * 1.引言 * 2. 背景 * 2.1 大型语言模型 * 2.2 大型语言模型的训练 * 2.3 联邦微调 * 3. 挑战 * 3.1 通信开销 * 3.2 数据异质性 * 3.3 内存墙 * 3.4 计算开销 * 4. 大语言模型与时序图像的融合 * 4.1 基于低秩适应(LoRA)的微调

AI绘画平民化:开源镜像+千元显卡畅玩Z-Image-Turbo

AI绘画平民化:开源镜像+千元显卡畅玩Z-Image-Turbo 从“算力贵族”到“人人可画”:AI图像生成的平民化革命 曾几何时,高质量AI图像生成是少数拥有高端GPU(如A100、4090)用户的专属领域。动辄数十GB显存、上千美元硬件投入,让大多数爱好者望而却步。然而,随着阿里通义实验室推出Z-Image-Turbo模型,并由开发者“科哥”完成WebUI二次开发与本地部署优化,一场真正的AI绘画平民化浪潮正在到来。 Z-Image-Turbo并非简单的轻量化模型——它在保持高视觉质量的同时,将推理显存需求压缩至8GB以下,这意味着即使是2020年后的主流中端显卡(如RTX 3060、2060、甚至MX系列)也能流畅运行。更关键的是,该项目以完全开源+预配置镜像的形式发布,极大降低了技术门槛,真正实现了“开箱即用”。 本文将深入解析这一技术组合如何打破AI绘画的硬件壁垒,并提供一套完整、可落地的本地部署与使用指南,帮助你用千元级设备开启创作之旅。 技术架构解析:Z-Image-Turbo为何能“小显存大产出” 核心机制:蒸馏+结构优化双轮驱动 Z-Image-Tu

Science Advances | 一种材料造出整只大象机器人:晶格几何编程实现从柔软到刚硬的

Science Advances | 一种材料造出整只大象机器人:晶格几何编程实现从柔软到刚硬的

论文信息 英文题目:Lattice structure musculoskeletal robots: Harnessing programmable geometric topology and anisotropy 中文题目: 晶格结构肌肉骨骼机器人:利用可编程几何拓扑和各向异性 作者:Qinghua Guan, Benhui Dai, Hung Hon Cheng, Josie Hughes 作者单位: 瑞士洛桑联邦理工学院(EPFL) 期刊:Science Advances(IF 13.6 中科院一区,JCR一区) 发表时间:2025年7月16日 链接:https://www.science.org/doi/10.1126/sciadv.adu9856 引文格式:Guan

论文阅读:Training language models to follow instructions with human feedback

Ouyang L, Wu J, Jiang X, et al. Training language models to follow instructions with human feedback[J]. Advances in neural information processing systems, 2022, 35: 27730-27744. 引言 引言首先指出了当前大型语言模型(LMs)存在的一个核心问题:模型规模变大并不意味着它们能更好地遵循用户的意图 。具体而言,大型模型经常生成不真实、有毒或对用户毫无帮助的输出,这是因为语言模型的训练目标(预测网页上的下一个 token)与用户希望的目标(“有用且安全地遵循指令”)是错位的。作者的目标是让模型在“有用性”(Helpful)、“诚实性”(Honest)和“无害性”(Harmless)这三个方面与用户意图对齐。