别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

目录

先说结论:10 分钟搭起“人机共管”的赛博办公室

一、整体部署与使用流程(先看全貌)

二、项目背景:DeskClaw 在解决什么问题?

三、环境准备:Docker Desktop 是唯一核心

步骤 1:安装 Docker Desktop

步骤 2:准备代码目录与项目文件

四、一键启动:Docker Compose 部署

步骤 1:启动服务

步骤 2:获取初始账号密码

步骤 3:浏览器访问平台

五、安装完成后的基本操作

六、实战示例:让 AI 同事每天帮你整理行业情报

场景设定

步骤 1:创建 Cyber Workspace

步骤 2:添加 AI 同事

步骤 3:为 AI 同事安装 Gene(技能包)

步骤 4:配置大模型(关键!)

步骤 5:派发第一个任务

七、写给 Windows 用户的特别提示

小结:从“试玩 Demo”到“真正做事”


先说结论:10 分钟搭起“人机共管”的赛博办公室

DeskClaw(NoDeskAI/nodeskclaw)是一个开源的“人机共管运营平台”:

人在上面定策略、派任务,AI 同事在后台不停干活,所有协作都在一个可视化的“Cyber Workspace”里完成——不是简单的聊天框,而是一块共享的业务看板。

这篇文章会带你用 Docker Compose 在单机上把完整平台跑起来,并演示一个真实场景:

“让 AI 同事帮你每天自动整理行业情报”。


一、整体部署与使用流程(先看全貌)

下面这张流程图,是从“准备服务器”到“AI 同事真正干活”的完整链路:

后面所有章节,都是围绕这张图展开的详细操作。


二、项目背景:DeskClaw 在解决什么问题?

官方对 DeskClaw 的定位很清晰:

“The open-source platform where humans and AI run businesses together — from strategy to execution.”

核心几个概念:

  • Cyber Workspace(赛博工作区)

人和 AI 共享的运营看板,六边形拓扑展示团队关系,共享“黑板”和任务委派,是业务实际发生的地方。

  • Gene System(基因系统)

可以理解为“AI 同事的技能包”,来自公共市场或企业私有库,可按需加载、组合、持续进化。

  • Elastic Scale(弹性扩缩容)

支持在 Kubernetes 或本地 Docker 一键部署/扩容 AI 运行实例,平台帮你搞定基础设施,你专注运营决策。

简单说:

你定“做什么”,AI 同事负责“怎么做”,DeskClaw 把两者捏合成一个真正的团队。


三、环境准备:Docker Desktop 是唯一核心

在 Windows 上运行 DeskClaw,最核心的工具就是 Docker Desktop。它会在你的 Windows 上通过 WSL2(Windows Subsystem for Linux)虚拟化出一个轻量级的 Linux 内核,用来跑容器。

步骤 1:安装 Docker Desktop

  1. 下载安装包 访问 Docker 官网下载页面:https://www.docker.com/products/docker-desktop/ 点击“Download for Windows”下载安装程序。

  1. 安装与配置 双击运行安装程序,确保勾选 “Use WSL 2 instead of Hyper-V”(推荐,性能更好)。 安装完成后,重启电脑。
  2. 启动与验证 重启后,启动“Docker Desktop”应用。首次启动可能需要几分钟初始化。 左下角状态栏显示 “Engine running” 绿色图标,即表示 Docker 引擎已就绪。

步骤 2:准备代码目录与项目文件

你可以选择两种方式获取代码:

方式一:Git Clone(推荐,方便后续更新)

  • 下载并安装 Git for Windows(如果尚未安装):https://git-scm.com/download/win
  • 在电脑上新建一个文件夹,例如 D:\DeskClaw
  • 在该文件夹内右键点击空白处,选择“Open Git Bash here”或“在终端中打开”
  • 输入以下命令克隆项目:
git clone https://github.com/NoDeskAI/nodeskclaw.git

方式二:直接下载 ZIP

完成后,请确保你的终端(PowerShell 或 CMD)当前目录位于 nodeskclaw 文件夹内。

四、一键启动:Docker Compose 部署

步骤 1:启动服务

打开 PowerShell(推荐)或 CMD,切换到项目目录:

cd nodeskclaw

执行一键启动命令:

docker compose up -d

这一步会自动拉取所需镜像(如 PostgreSQL、Backend、Portal 等)并启动容器。首次运行可能需要几分钟下载镜像。

步骤 2:获取初始账号密码

服务启动后,查看日志获取管理员账号:

docker compose logs nodeskclaw-backend --tail 100

在输出日志中找到类似以下内容:

======================================== Initial admin account Account: admin Password: <随机字符串> Please change your password after login ========================================

请务必记下这个密码。

步骤 3:浏览器访问平台

打开你喜欢的浏览器,访问:

http://localhost

如果 80 端口被占用,你可以修改 docker-compose.yml 文件,将 Portal 的端口映射改为其他端口,例如 8080:80,然后访问 http://localhost:8080

使用步骤 2 中获取的 admin 账号和密码登录,登录后系统会强制要求修改密码。

五、安装完成后的基本操作

恭喜你,你的“赛博办公室”已经在本地跑起来了。接下来的步骤是“装修办公室”和“招聘员工”:

  1. 创建 Cyber Workspace(工作区):这是你和 AI 团队共享的业务看板。

  1. 添加集群。

  1. 添加 AI 同事:相当于招聘员工。

  1. 配置 LLM(大模型):让 AI 拥有“大脑”。

我这里使用蓝耘MaaS模型/maas/jieyue/step-3.5-flash,登录之后跟随图片中的步骤一步一步获取api

然后一一添加进去

稍微等待一会儿,就会看到我们的第一个员工部署成功了

下面我们通过一个具体示例来串联这些步骤。


六、实战示例:让 AI 同事每天帮你整理行业情报

场景设定

假设你是一名市场分析师或创业者,每天早上需要:

  • 浏览若干行业媒体网站
  • 汇总“AI Agent / 大模型应用”相关的最新动态
  • 生成一份简报,包含:标题、摘要、来源链接、时间

传统做法是:开 N 个网站 -> 复制粘贴 -> 自己整理,非常耗时。

在 DeskClaw 里,我们可以创建一个“情报收集 AI 同事”,让它每天早上自动干活,你只需要在 Workspace 里看结果。

步骤 1:创建 Cyber Workspace

注:以下步骤为基于官方概念与界面设计的合理推断,具体按钮/菜单名称以实际界面为准。

  1. 登录 Portal 后,进入“工作区 / Cyber Workspace”模块。
  2. 点击“新建工作区”,例如:
    1. 名称:AI 行业情报站
    2. 说明:每天自动收集 AI 行业动态,生成简报

  1. 保存后,你会看到一个“空白”的 Workspace,其中有:
    1. 共享黑板(Blackboard)
    2. 任务看板
    3. AI 同事列表

步骤 2:添加 AI 同事

在 Workspace 中:

  1. 点击“添加 AI 同事 / New AI Partner”。
  2. 保存后,这个 AI 同事会出现在 Workspace 的拓扑图中,与你形成“协作关系”。

步骤 3:为 AI 同事安装 Gene(技能包)

Gene 是 AI 同事的“能力基因”,例如:

  • “网页抓取” Gene
  • “文本摘要” Gene
  • “JSON 结构化输出” Gene

在 Portal 的 Gene 市场(或基因库)中,你可以:

  1. 搜索类似 web-collectornews-summarizer 的 Gene。
  2. 选择一个适合新闻抓取与摘要的 Gene,点击“安装到工作区”。
  3. 在 AI 同事的设置中,将这个 Gene 绑定到该同事身上。

具体界面名称可能为“基因库 / GeneHub”或“技能市场”,但逻辑是一致的:从市场安装 Gene,再分配给 AI 同事。

步骤 4:配置大模型(关键!)

AI 同事需要大模型才能思考和总结。在“设置”->“模型配置”中:

  1. 选择你的模型服务商(如 蓝耘MaaS)。
  2. 填入你的 API Key。

  1. 保存配置。

步骤 5:派发第一个任务

  1. 在工作区的黑板或任务栏,点击“新建任务”。
  2. 填写任务描述:

“访问以下网站:https://blog.ZEEKLOG.net/rank/list,搜集与 AI 相关的最新文章,生成一份包含标题、摘要、链接的 Markdown 简报,并保存到黑板。”


七、写给 Windows 用户的特别提示

  1. 性能考量:虽然 DeskClaw 可以在本地流畅运行,但如果你的任务非常繁重(如同时运行多个 AI 同事处理大量数据),可能会占用较多内存和 CPU。建议电脑至少有 16GB 内存。
  2. 数据安全:所有数据都保存在本地 Docker 容器挂载的卷中。如果卸载 Docker Desktop 或删除容器,数据可能会丢失。务必定期备份重要数据。
  3. 网络代理:如果你的网络环境访问 Docker Hub 或 GitHub 较慢,可以在 Docker Desktop 的设置中配置代理加速。

小结:从“试玩 Demo”到“真正做事”

今天,我们只用了几分钟,就在 Windows 本地搭建起了一个真正的“人机协同工作平台”。这不是一个简单的 Demo,而是一个可以随着你的需求不断进化、迭代的操作系统。

你不需要成为技术大牛,也不需要昂贵的服务器,只需一台普通的 Windows 电脑,就能拥有一个永不疲倦、持续进化的 AI 团队。

下一步,试着把你的日常重复性工作,拆解成任务,交给你的 AI 同事吧。

Read more

OpenClaw 的免费 AI 大模型及其配置方法

OpenClaw 中的“自由模型”可能意味着两种不同的东西,而混淆这两种模型正是大多数人浪费时间的地方。 有一种“免费”是真正意义上的免费,因为模型运行在本地,你只需要支付 CPU、内存、GPU 和电力费用。例如 Ollama 或你自行托管的 OpenAI 兼容运行时环境。 另一种是“免费套餐”,即托管服务提供商提供一定的配额、积分或 OAuth 访问权限。这种套餐虽然不错,但通常会有速率限制、策略限制,而且偶尔还会出现意外中断或流量突然上限的情况。 本指南篇幅较长,因为模型配置看似简单,但一旦遇到问题,例如工具调用速度变慢、出现 429 错误,或者某个代理使用的身份验证配置文件与预期不符等,就会发现其中的奥妙。我们将力求实用。 如果您是 OpenClaw 新手,想先了解基础知识,可以阅读 OpenClaw 简介及其工作原理。如果您已经运行了 OpenClaw,接下来我们来正确地连接模型。 OpenClaw

「龙虾」来了!OpenClaw如何掀起AI智能体革命

「龙虾」来了!OpenClaw如何掀起AI智能体革命

「龙虾」爆火:OpenClaw的崛起与狂欢 OpenClaw生态系统 能力扩展 部署方式 部署方式 部署方式 OpenClaw核心 ClawHub技能商店 百度App一键调用 DuClaw零部署服务 红手指Operator移动端 财经分析 新闻推送 股票分析 全网比价 5000万tokens免费 网页端直接使用 跨App操作 打车、外卖等 腾讯 QClaw WorkBuddy 腾讯云Lighthouse 智能体开发平台ADP 3月12日,百度在安卓端上线「红手指Operator」应用,标志着全球首款手机「龙虾」应用正式诞生。这款结合了自研移动端AI Agent能力的应用,可实现打车、外卖订餐等跨App交互操作,一经推出便引爆下载热潮,甚至导致系统后台资源出现紧缺。百度智能云迅速回应称,正全速调配资源扩容,全力保障用户体验。 OpenClaw,这个昵称为「龙虾」的个人AI智能体助手,在短短3周内GitHub Star数突破19万,比当年DeepSeek的增长速度还要迅猛。

Openclaw高星开源框架:三省六部·用古代官制设计的 AI Agent 协作架构

Openclaw高星开源框架:三省六部·用古代官制设计的 AI Agent 协作架构

作者:cft0808 项目地址:https://github.com/cft0808/edict |许可:MIT 概述 三省六部·Edict 是一个基于中国古代官制设计的 AI 多 Agent 协作架构。它把唐朝以来运行了一千多年的三省六部制搬到了 AI 世界,创建了一套具有分权制衡、专职审核、完全可观测特性的 Agent 协作系统。 项目目前 6.9k+ Stars,581 Fork,Star 增长很快。 核心设计思想 问题:为什么大多数 Multi-Agent 框架不好用? 当前主流的多 Agent 框架(CrewAI、AutoGen、LangGraph)通常采用「自由对话」模式: Agent A

彻底解决 OpenClaw 总是“失忆”!AI 编程上下文 Token 限制剖析与 6 大扩容实战

彻底解决 OpenClaw 总是“失忆”!AI 编程上下文 Token 限制剖析与 6 大扩容实战

为什么 OpenClaw 上下文记忆这么短?完整原因与解决方案 核心定义: OpenClaw 的上下文记忆短是指其在单次对话中能记住的对话历史和代码内容有限,通常受限于底层模型的 token 窗口(如 128K tokens)和会话管理策略。当对话轮次增多或涉及大量代码文件时,早期内容会被自动遗忘,导致 AI 无法参考之前的讨论或代码修改记录。 OpenClaw 上下文记忆的技术原理 OpenClaw 作为 AI 辅助编程工具,其上下文记忆受三层因素制约: 模型层限制 * Token 窗口上限:底层大语言模型(如 Claude 3.5 Sonnet)的上下文窗口通常为 128K-200K tokens * 1 token ≈ 0.75 个英文单词 或 1-2 个中文字符 * 一个 2000 行的 Python