在github codespaces部署开源个人智能体OpenClaw(Clawdbot/Moltbot)使用教程

openClaw官方仓库:https://github.com/openclaw/openclaw

OpenClaw 是什么?

OpenClaw(原名 Clawdbot,后更名为 Moltbot,现正式命名为 OpenClaw)是一个运行在你本地环境的高权限 AI 智能体。它的核心特性包括:

  • 本地部署:运行在你的服务器或电脑上,数据完全自主可控
  • 多平台支持:支持飞书、WhatsApp、Telegram、Discord、Slack 等主流聊天工具
  • 浏览器控制:可以浏览网页、填写表单、提取数据
  • 系统访问:读写文件、执行 Shell 命令、运行脚本
  • 持久化记忆:记住你的偏好和上下文,成为真正属于你的 AI
  • 插件扩展:支持社区技能插件,甚至可以自己编写插件

无论是邮件管理、日程安排、数据查询还是代码编写,OpenClaw 都能成为你的得力助手。

进入github

创建一个新仓库openclawd

为项目创建codesapce

打开codespace

在命令行查看操作系统和node版本

# 使用官方脚本安装 curl -fsSL https://openclaw.bot/install.sh | bash # 备用方案 pnpm add -g openclaw@latest

执行成功后界面如上图所求,3分钟后

选择yes

选quickStart快速开始

选择Qwen

Error: Qwen OAuth timed out waiting for authorization.

不好意思,失败,重新安装,全部选skip

openclaw status openclaw gateway openclaw gateway --allow-unconfigured #重新安装,再一遍 openclaw onboard --install-daemon #重启 openclaw gateway --port 18789 --verbose 1008报错 openclaw dashboard --no-open openclaw status

都无法访问,直接重装。在端口里可以添加18789进行转发

启动正常,进入界面

接入国产大模型
1 深度求索(DeepSeek)
获取APIkey:https://platform.deepseek.com/api_keys
在apiKey处输入你的apikey即可

openclaw config set 'models.providers.deepseek' --json '{   "baseUrl": "https://api.deepseek.com/v1",   "apiKey": "",   "api": "openai-completions",   "models": [     { "id": "deepseek-chat", "name": "DeepSeek Chat" },     { "id": "deepseek-reasoner", "name": "DeepSeek Reasoner" }   ] }'


 
设置 models.mode 为 merge

openclaw config set models.mode merge


设置默认模型(以deepseek-chat为例)

openclaw models set deepseek/deepseek-chat

查看状态 openclaw status

接下来会提示选择 channel,这里先跳过,后续再添加

继续下面选择 skills,也是选择 No,如下图


继续下面选择 hooks,也是使用空格选择 No,如下图

也可以全部选中,不是自己的机器无所谓

然后等待安装完成,最后会出现以下选项,这里选择 TUI

如果看到 TUI 聊天界面,说明安装成功,可以尝试输入 Hello 进行测试。

然后直接使用 ctrl+c 先关闭,后面我们再来设置

查看服务

可以使用下面的命令来查看

openclaw dashboard

有任何问题欢迎留言讨论

discord账号创建

开始配置OpenClaw

首次登入服务器后,输入并回车运行如下命令开始配置:

openclaw onboard

运行 clawdbot onboard 后,需要通过键盘来完成后续配置动作,关键操作:方向键控制选项,回车表示选择并确认。

企业微信创建webhook

腾讯云部署成功的配置文件。需要wxcom插件的留言

{ "meta": { "lastTouchedVersion": "2026.1.30", "lastTouchedAt": "2026-02-04T15:22:13.503Z" }, "wizard": { "lastRunAt": "2026-02-04T15:22:13.490Z", "lastRunVersion": "2026.1.30", "lastRunCommand": "onboard", "lastRunMode": "local" }, "models": { "mode": "merge", "providers": { "hunyuan": { "baseUrl": "https://api.hunyuan.cloud.tencent.com/v1", "apiKey": "sk-VLWz4jTTsNKdlzWbukXXXX", "api": "openai-completions", "models": [ { "id": "hunyuan-turbos-latest", "name": "混元 TurboS Latest", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 } ] } } }, "agents": { "defaults": { "model": { "primary": "hunyuan/hunyuan-turbos-latest" }, "workspace": "/root/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto" }, "channels": { "wecom": { "enabled": true, "token": "rRCJiQM31gl", "encodingAESKey": "Si7yiho6YHIjBXXXX" } }, "gateway": { "port": 18789, "mode": "local", "bind": "lan", "auth": { "mode": "token", "token": "011b07d4591794cdd776f726e9e06e06bafc2d99ac75116f" }, "tailscale": { "mode": "off", "resetOnExit": false } }, "skills": { "install": { "nodeManager": "npm" } }, "plugins": { "entries": { "feishu": { "enabled": true }, "qqbot": { "enabled": true }, "dingtalk": { "enabled": true }, "wecom": { "enabled": true } }, "installs": { "feishu": { "source": "npm", "spec": "@m1heng-clawd/feishu", "installPath": "/root/.openclaw/extensions/feishu", "version": "0.1.7", "installedAt": "2026-02-04T06:59:58.306Z" }, "qqbot": { "source": "npm", "spec": "https://github.com/sliverp/qqbot.git", "installPath": "/root/.openclaw/extensions/qqbot", "version": "1.3.0", "installedAt": "2026-02-04T07:01:02.258Z" }, "dingtalk": { "source": "archive", "sourcePath": "/tmp/tmp.XgWu7SxhWr/dingtalk.tgz", "installPath": "/root/.openclaw/extensions/dingtalk", "version": "0.2.0", "installedAt": "2026-02-04T07:01:41.777Z" }, "wecom": { "source": "archive", "sourcePath": "/tmp/tmp.lsxanbsiQ5/wecom.tgz", "installPath": "/root/.openclaw/extensions/wecom", "version": "2026.1.30", "installedAt": "2026-02-04T07:02:50.962Z" } } }, "hooks": { "internal": { "enabled": true, "entries": { "session-memory": { "enabled": true } } } } } 

Read more

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

摘要: 本文旨在为人工智能生成内容(AIGC)领域的爱好者和开发者提供一份详尽的Fooocus部署指南。Fooocus作为一款基于Gradio的开源图像生成软件,凭借其简化的操作和高质量的输出,受到了广泛关注。我们将通过两种截然不同的部署路径——传统的本地手动环境配置与现代化的云平台一键部署——来全面探索Fooocus的落地过程。本文将深入剖析手动部署中的每一个步骤、每一条命令及其背后的技术逻辑,详细记录可能遇到的环境冲突与解决方案,并将其与云端部署的流畅体验进行客观对比,为读者在不同场景下选择最合适的部署策略提供坚实的技术参考。 第一章:引言——Fooocus与AIGC部署的挑战 随着Stable Diffusion等底层模型的开源,AIGC技术,特别是文生图领域,迎来了爆发式的增长。各种应用和WebUI层出不穷,极大地降低了普通用户接触和使用前沿AI模型的门槛。在众多工具中,由lllyasviel(ControlNet的作者)开发的Fooocus,以其独特的哲学脱颖而出。Fooocus的设计理念是“化繁为简”,它在保留Stable Diffusion XL(SDXL)强大能力的

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

文章目录 * 一、前言 * 1.1 模型开源意义与背景 * 1.2 文心一言大模型简介 * 1.3 测评目标与思路 * 二、文心一言大模型 * 2.1 文心一言开源概况 * 2.2 文心一言大模型技术综述 * 三、文心一言大模型深度解析 * 3.1 开源策略与生态影响 * 3.1.1 开源时间与版本介绍 * 3.2 模型特性与优势 * 四、部署实战:从 GitCode下载ERNIE-4.5-0.3B 模型到本地可交互服务 * 4.1 环境准备与部署方式 * 4.2 下载与安装步骤 * 4.3 调用示例与接口说明 * 编写部署测试脚本 * 五、

知网AIGC检测怎么过?2026最新降AI率全流程攻略

知网AIGC检测怎么过?2026最新降AI率全流程攻略

知网AIGC检测怎么过?2026最新降AI率全流程攻略 今年答辩季最让人头疼的事,不是论文写不出来,而是写出来过不了AIGC检测。 尤其是知网。 2026年知网的AIGC检测系统又升级了,身边好几个同学的论文,之前在其他平台检测AI率只有10%出头,结果到知网一测直接飙到40%以上。搞得整个宿舍楼都弥漫着一股焦虑的气息。 我自己也经历了这个过程,最后顺利过了检测。今天把整个流程整理出来,从理解检测原理到实际操作步骤,争取让你看完就知道该怎么做。 先搞懂:知网AIGC检测到底在查什么 很多人一听"AI检测"就慌,但其实搞明白它的检测逻辑之后,你会发现它并没有那么神秘。 知网的AIGC检测大致是从这几个维度来判断的: 语言模型的困惑度。 简单说就是,一段文字如果太"通顺"了,AI检测系统反而会觉得可疑。因为AI生成的文字有一个特点——它总是选择概率最高的下一个词。这就导致AI写的内容在语言模型看来"毫不意外",困惑度很低。而人写的东西偶尔会蹦出一些意想不到的表达,困惑度相对高一些。 文本的统计特征。 包括词汇丰富度、句子长度分布、段落结构等。AI生成的文字在这些统计指标

【GitHub Copilot】Figma MCP还原设计稿生成前端代码

【GitHub Copilot】Figma MCP还原设计稿生成前端代码

这里写自定义目录标题 * Step1:让AI给你配置MCP * Step2:替换成自己的Figma密钥 * Step3:如何使用 Cursor+Figma MCP的教程已经很多了,由于我所在的公司采购的是GitHub Copilot,我研究了一下直接在vscode里利用GitHub Copilot接入Figma MCP进行设计稿还原代码,大获成功,这里分享我的步骤,希望能帮到你。 Step1:让AI给你配置MCP 在vscode中打开你的项目(我的例子是一个微信小程序),呼出github copilot对话框,模式选择Agent,模型建议Claude 3.7 Sonnet,提问: https://github.com/GLips/Figma-Context-MCP 如何配置能让你在vscode里使用这个mcp 之后跟着提示狂点下一步即可完成配置,如果有什么需要装的vscode插件它会自动帮你装,甚至自动生成了配置说明文档。 由于不能保证AI每次生成的答案都一致,这里附上我的运行结果作为参考,可以看到它在项目文件夹最外层建了一个.vscode文件夹,在sett