别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

目录

先说结论:10 分钟搭起“人机共管”的赛博办公室

一、整体部署与使用流程(先看全貌)

二、项目背景:DeskClaw 在解决什么问题?

三、环境准备:Docker Desktop 是唯一核心

步骤 1:安装 Docker Desktop

步骤 2:准备代码目录与项目文件

四、一键启动:Docker Compose 部署

步骤 1:启动服务

步骤 2:获取初始账号密码

步骤 3:浏览器访问平台

五、安装完成后的基本操作

六、实战示例:让 AI 同事每天帮你整理行业情报

场景设定

步骤 1:创建 Cyber Workspace

步骤 2:添加 AI 同事

步骤 3:为 AI 同事安装 Gene(技能包)

步骤 4:配置大模型(关键!)

步骤 5:派发第一个任务

七、写给 Windows 用户的特别提示

小结:从“试玩 Demo”到“真正做事”


先说结论:10 分钟搭起“人机共管”的赛博办公室

DeskClaw(NoDeskAI/nodeskclaw)是一个开源的“人机共管运营平台”:

人在上面定策略、派任务,AI 同事在后台不停干活,所有协作都在一个可视化的“Cyber Workspace”里完成——不是简单的聊天框,而是一块共享的业务看板。

这篇文章会带你用 Docker Compose 在单机上把完整平台跑起来,并演示一个真实场景:

“让 AI 同事帮你每天自动整理行业情报”。


一、整体部署与使用流程(先看全貌)

下面这张流程图,是从“准备服务器”到“AI 同事真正干活”的完整链路:

后面所有章节,都是围绕这张图展开的详细操作。


二、项目背景:DeskClaw 在解决什么问题?

官方对 DeskClaw 的定位很清晰:

“The open-source platform where humans and AI run businesses together — from strategy to execution.”

核心几个概念:

  • Cyber Workspace(赛博工作区)

人和 AI 共享的运营看板,六边形拓扑展示团队关系,共享“黑板”和任务委派,是业务实际发生的地方。

  • Gene System(基因系统)

可以理解为“AI 同事的技能包”,来自公共市场或企业私有库,可按需加载、组合、持续进化。

  • Elastic Scale(弹性扩缩容)

支持在 Kubernetes 或本地 Docker 一键部署/扩容 AI 运行实例,平台帮你搞定基础设施,你专注运营决策。

简单说:

你定“做什么”,AI 同事负责“怎么做”,DeskClaw 把两者捏合成一个真正的团队。


三、环境准备:Docker Desktop 是唯一核心

在 Windows 上运行 DeskClaw,最核心的工具就是 Docker Desktop。它会在你的 Windows 上通过 WSL2(Windows Subsystem for Linux)虚拟化出一个轻量级的 Linux 内核,用来跑容器。

步骤 1:安装 Docker Desktop

  1. 下载安装包 访问 Docker 官网下载页面:https://www.docker.com/products/docker-desktop/ 点击“Download for Windows”下载安装程序。

  1. 安装与配置 双击运行安装程序,确保勾选 “Use WSL 2 instead of Hyper-V”(推荐,性能更好)。 安装完成后,重启电脑。
  2. 启动与验证 重启后,启动“Docker Desktop”应用。首次启动可能需要几分钟初始化。 左下角状态栏显示 “Engine running” 绿色图标,即表示 Docker 引擎已就绪。

步骤 2:准备代码目录与项目文件

你可以选择两种方式获取代码:

方式一:Git Clone(推荐,方便后续更新)

  • 下载并安装 Git for Windows(如果尚未安装):https://git-scm.com/download/win
  • 在电脑上新建一个文件夹,例如 D:\DeskClaw
  • 在该文件夹内右键点击空白处,选择“Open Git Bash here”或“在终端中打开”
  • 输入以下命令克隆项目:
git clone https://github.com/NoDeskAI/nodeskclaw.git

方式二:直接下载 ZIP

完成后,请确保你的终端(PowerShell 或 CMD)当前目录位于 nodeskclaw 文件夹内。

四、一键启动:Docker Compose 部署

步骤 1:启动服务

打开 PowerShell(推荐)或 CMD,切换到项目目录:

cd nodeskclaw

执行一键启动命令:

docker compose up -d

这一步会自动拉取所需镜像(如 PostgreSQL、Backend、Portal 等)并启动容器。首次运行可能需要几分钟下载镜像。

步骤 2:获取初始账号密码

服务启动后,查看日志获取管理员账号:

docker compose logs nodeskclaw-backend --tail 100

在输出日志中找到类似以下内容:

======================================== Initial admin account Account: admin Password: <随机字符串> Please change your password after login ========================================

请务必记下这个密码。

步骤 3:浏览器访问平台

打开你喜欢的浏览器,访问:

http://localhost

如果 80 端口被占用,你可以修改 docker-compose.yml 文件,将 Portal 的端口映射改为其他端口,例如 8080:80,然后访问 http://localhost:8080

使用步骤 2 中获取的 admin 账号和密码登录,登录后系统会强制要求修改密码。

五、安装完成后的基本操作

恭喜你,你的“赛博办公室”已经在本地跑起来了。接下来的步骤是“装修办公室”和“招聘员工”:

  1. 创建 Cyber Workspace(工作区):这是你和 AI 团队共享的业务看板。

  1. 添加集群。

  1. 添加 AI 同事:相当于招聘员工。

  1. 配置 LLM(大模型):让 AI 拥有“大脑”。

我这里使用蓝耘MaaS模型/maas/jieyue/step-3.5-flash,登录之后跟随图片中的步骤一步一步获取api

然后一一添加进去

稍微等待一会儿,就会看到我们的第一个员工部署成功了

下面我们通过一个具体示例来串联这些步骤。


六、实战示例:让 AI 同事每天帮你整理行业情报

场景设定

假设你是一名市场分析师或创业者,每天早上需要:

  • 浏览若干行业媒体网站
  • 汇总“AI Agent / 大模型应用”相关的最新动态
  • 生成一份简报,包含:标题、摘要、来源链接、时间

传统做法是:开 N 个网站 -> 复制粘贴 -> 自己整理,非常耗时。

在 DeskClaw 里,我们可以创建一个“情报收集 AI 同事”,让它每天早上自动干活,你只需要在 Workspace 里看结果。

步骤 1:创建 Cyber Workspace

注:以下步骤为基于官方概念与界面设计的合理推断,具体按钮/菜单名称以实际界面为准。

  1. 登录 Portal 后,进入“工作区 / Cyber Workspace”模块。
  2. 点击“新建工作区”,例如:
    1. 名称:AI 行业情报站
    2. 说明:每天自动收集 AI 行业动态,生成简报

  1. 保存后,你会看到一个“空白”的 Workspace,其中有:
    1. 共享黑板(Blackboard)
    2. 任务看板
    3. AI 同事列表

步骤 2:添加 AI 同事

在 Workspace 中:

  1. 点击“添加 AI 同事 / New AI Partner”。
  2. 保存后,这个 AI 同事会出现在 Workspace 的拓扑图中,与你形成“协作关系”。

步骤 3:为 AI 同事安装 Gene(技能包)

Gene 是 AI 同事的“能力基因”,例如:

  • “网页抓取” Gene
  • “文本摘要” Gene
  • “JSON 结构化输出” Gene

在 Portal 的 Gene 市场(或基因库)中,你可以:

  1. 搜索类似 web-collectornews-summarizer 的 Gene。
  2. 选择一个适合新闻抓取与摘要的 Gene,点击“安装到工作区”。
  3. 在 AI 同事的设置中,将这个 Gene 绑定到该同事身上。

具体界面名称可能为“基因库 / GeneHub”或“技能市场”,但逻辑是一致的:从市场安装 Gene,再分配给 AI 同事。

步骤 4:配置大模型(关键!)

AI 同事需要大模型才能思考和总结。在“设置”->“模型配置”中:

  1. 选择你的模型服务商(如 蓝耘MaaS)。
  2. 填入你的 API Key。

  1. 保存配置。

步骤 5:派发第一个任务

  1. 在工作区的黑板或任务栏,点击“新建任务”。
  2. 填写任务描述:

“访问以下网站:https://blog.ZEEKLOG.net/rank/list,搜集与 AI 相关的最新文章,生成一份包含标题、摘要、链接的 Markdown 简报,并保存到黑板。”


七、写给 Windows 用户的特别提示

  1. 性能考量:虽然 DeskClaw 可以在本地流畅运行,但如果你的任务非常繁重(如同时运行多个 AI 同事处理大量数据),可能会占用较多内存和 CPU。建议电脑至少有 16GB 内存。
  2. 数据安全:所有数据都保存在本地 Docker 容器挂载的卷中。如果卸载 Docker Desktop 或删除容器,数据可能会丢失。务必定期备份重要数据。
  3. 网络代理:如果你的网络环境访问 Docker Hub 或 GitHub 较慢,可以在 Docker Desktop 的设置中配置代理加速。

小结:从“试玩 Demo”到“真正做事”

今天,我们只用了几分钟,就在 Windows 本地搭建起了一个真正的“人机协同工作平台”。这不是一个简单的 Demo,而是一个可以随着你的需求不断进化、迭代的操作系统。

你不需要成为技术大牛,也不需要昂贵的服务器,只需一台普通的 Windows 电脑,就能拥有一个永不疲倦、持续进化的 AI 团队。

下一步,试着把你的日常重复性工作,拆解成任务,交给你的 AI 同事吧。

Read more

一键启动Z-Image-Turbo,无需下载权重的AI绘画新体验

一键启动Z-Image-Turbo,无需下载权重的AI绘画新体验 在AI绘画工具泛滥的今天,你是否也经历过这些时刻: 等了20分钟下载完15GB模型权重,结果显存不足报错; 改了三次提示词,生成一张图要花8秒,反复调试像在抽盲盒; 想给同事快速演示效果,却卡在环境配置环节,光装依赖就耗掉一整个下午…… 别再让“部署”成为创意的门槛。这一次,我们把Z-Image-Turbo变成真正开箱即用的生产力工具——不用下载、不配环境、不调参数,输入一句话,9秒后高清图已就位。 这不是概念演示,而是基于真实镜像的工程化落地:预置32.88GB完整权重、适配RTX 4090D高显存机型、原生支持1024×1024分辨率、仅需9步推理。它不追求参数堆砌,只专注一件事:让你的灵感,零延迟落地。 下面带你全程实操,从点击启动到生成第一张作品,全程不超过90秒。 1. 为什么说“无需下载权重”是质变级体验 传统文生图部署的痛点,从来不在模型多强大,而在于“抵达成本”太高。Z-Image-Turbo镜像彻底重构了这个流程——它不是给你一个安装包,而是直接交付一个已预热、

组建龙虾团队——OpenClaw多机器人构建

组建龙虾团队——OpenClaw多机器人构建

成功搭建了OpenClaw,也成功建立的自己的每日服务,这时候发现,似乎不太敢在当前的机器人中让他做别的事情,生怕会话太多会让他出现遗忘。(尽管我们配置了QMD记忆增强,但毋庸置疑任何技术都是有上限的)。 换做同样的情况,比如在DeepSeek或者豆包之类的对话窗口,我们会习惯性地新建一个对话。那么我们是否可以新建一个机器人,或者多个机器人,让他们各司其职,各尽所能,形成一个相互配合的团队呢~开干吧,没什么不可能的!! 🦞新建一个机器人 来到飞书开发者后台,新创建一个应用,在这里我们以短视频剪辑脚本应用为例。 创建之后,由于我们的openclaw绑定的是之前的飞书渠道,并没有链接到这个应用的APP ID,所以暂时不做其他操作,只需要记录一下他的APP ID和APP Secret。 🦞配置OpenClaw 如果还是按照claw的命令行安装,每一步都有些让人担心害怕,毕竟我们先前已经配置过一次了,接下来的操作,需要小心是否会把以前的配置给覆盖掉。 为了避免这样的不确定性,我们直接去操作他的配置文件 在WSL2终端中进入openclaw目录 cd .openclaw

Stable Diffusion WebUI本地部署全步骤(含CUDA,cuDNN,Pytorch GPU版安装过程)(Win 11 + RTX5060)

部署SD WebUI前,先安装CUDA+cuDNN+Pytorch 电脑配置: 系统:windows 11 显卡:NVIDIA GeForce RTX 5060 Laptop GPU 内存:24G 下载版本: CUDA:13.0 cuDNN:9.13.1 Pytorch:12.9 第一步:安装CUDA 步骤一:查看CUDA version win+R输入cmd,在命令提示符窗口中输入nvidia-smi,查看CUDA Version 我的CUDA version 为13.0,所以我下载的版本为13.0的(也可以向下安装低版本的,我建议下载最新的版本)。 CUDA下载网址:https://developer.

一:ROS2+gazebo+PX4环境搭建:环境搭建到无人机起飞

前言 写博客记录学习的过程。 由于博客是安装完环境后写的,因此实际可能会有一些出入,但是实际上也大差不差的。 环境搭建 前置环境 * ROS2 humble * Gazebo Classic (11) 1.下载 PX4 源码 在你的 Home 目录下,用 Git 克隆 PX4 的代码仓库,并更新所有子模块。 git clone https://github.com/PX4/PX4-Autopilot.git --recursive 注意:由于这个源码中包含许多子模块,因此不建议到github主页下载zip再解压,这样做会缺失许多子模块。使用大陆的网络克隆起来会十分慢,因此强烈建议大家使用网络加速! 2.运行自动安装脚本 PX4 提供了自动化脚本,可以帮你安装编译仿真环境所需的所有依赖。 cd PX4-Autopilot bash ./Tools/setup/