手把手教你:在 Windows 部署 OpenAkita 并接入飞书模块,实现真正能干活的本地 AI 助手

手把手教你:在 Windows 部署 OpenAkita 并接入飞书模块,实现真正能干活的本地 AI 助手

目 录

前言

到 2026 年,单纯会“聊天”的 AI 已经不够用了。我们需要的是那种能真正帮你干活的助理:操作电脑、浏览网页、整理文件、定时跑任务、写代码、处理 Excel,还能通过飞书 / 钉钉 / 微信 / Telegram 随时响应你。

OpenAkita 就是这样一个开源的多智能体框架(GitHub:openakita/openakita,Apache 2.0 许可)。它不是某个大模型,而是一整支“AI 团队”:多个 Agent 协作分工、自动纠错、有长期记忆、还能在本地持续进化。相比之下,OpenClaw 更偏“个人 AI 助手 + 本地控制平面”,强调一套网关打通所有聊天工具和浏览器自动化,但不会刻意强调多 Agent 协作和图形化配置。

这篇文章会手把手带你从 Windows 11 开始,一步步部署 OpenAkita,并接入蓝耘 DeepSeek 满血版 API,整个过程尽量不敲命令,用桌面图形化搞定。适合:程序员、效率工具爱好者、想在本地搭一个“私有 AI 中台”的人。


第一章:为什么选 OpenAkita,而不是直接用 OpenClaw?

1.1 当前 AI 助理的几个现实痛点

  • 大模型只会聊天:你问“帮我整理一下这份 Excel”,它告诉你“你可以用 Python 的 pandas 这样写”,但不会真的帮你打开文件、改好发给你。
  • 官方接口又贵又卡:高峰期限流、排队,按量计费看着便宜,一天重度用下来账单也很可观。
  • 闭源产品功能锁死:想本地跑、想接国内模型、想深度集成自己的业务系统?基本别想。
  • 自己搭一套 Agent:配置复杂,要懂 Python、Docker、数据库,劝退一大波人。

1.2 OpenAkita 的核心优势(对比 OpenClaw)

先简单对比一下 OpenAkita 和 OpenClaw,方便你选型:

维度OpenAkitaOpenClaw
定位多智能体 AI 助手框架,强调“AI 团队协作”个人 AI 助手平台,强调“本地网关 + 多渠道接入”
部署体验官方提供 Windows 桌面安装包 + 图形化向导,全程可以不碰命令行官方推荐 CLI 向导(openclaw onboard),需要习惯终端
多 Agent多个 Agent 专业分工、并行执行、自动接力、可视化仪表盘支持多 Agent 路由,不同渠道/账户可映射到不同 Agent 工作区
工具/技能内置 89+ 工具,技能市场一键安装 GitHub 技能内置浏览器控制、定时任务、Webhooks,也有技能市场(ClawdHub)
IM 接入原生支持飞书、钉钉、企微、Telegram、QQ、OneBot 等 6 大平台支持 WhatsApp、Telegram、Slack、Discord、Teams 等几十种渠道
桌面自动化明确支持桌面自动化、鼠标键盘操作、浏览器自动化(Playwright + Windows API)强调浏览器控制、系统命令执行,但“桌面自动化”更偏浏览器层面
上手门槛强调“5 分钟上手、零命令行”,对新手非常友好对新手有一定命令行门槛,但社区教程很多

一句话总结:

  • 想要:**多 Agent 协作 + 图形化配置 + 桌面自动化 + 飞书/钉钉等国内 **IM → 选 OpenAkita。
  • 想要:个人 24/7 在线助手 + 多渠道统一收件箱 + 浏览器/系统级自动化 → 选 OpenClaw。

1.3 谁最适合用 OpenAkita?

  • 日常效率党:汇总文件、批量改名、定时提醒、自动发日报。
  • 程序员 / 开发者:写代码、调试、GitHub 自动化、搭建内部 AI 工具链。
  • 内容创作者:批量搜集素材、整理笔记、生成报告、定时发布内容。
  • 想控制成本的人:用蓝耘 DeepSeek 满血版,按量计费,搭配本地缓存,几毛钱跑一天。

第二章:Windows 下安装 OpenAkita(两种方案)

2.1 准备工作

建议按“生产部署标准”来准备环境,避免后面踩坑:

  • 操作系统:Windows 11(Win10 也可以,但建议 11)
  • 内存:≥ 16 GB(重度自动化建议 32 GB)
  • 磁盘:≥ 50 GB 可用空间(模型日志、缓存、技能会占用不少空间)
  • 网络:能访问 GitHub、蓝耘平台,国内网络可能需要代理
  • 账号:
    • 蓝耘元生代账号(用于 DeepSeek API)
    • 飞书开放平台账号(如果你要接飞书机器人)

2.2 方案一:一键脚本安装(适合能接受 PowerShell 的用户)

这是官方推崇的 Windows 部署方式,一般 3–8 分钟就能搞定。

步骤:

  1. 以管理员身份打开 PowerShell
    右键开始菜单 → Windows PowerShell (管理员)。
  2. 执行一键脚本:
irm https://raw.githubusercontent.com/openakita/openakita/main/scripts/quickstart.ps1 | iex 

脚本会自动:

1. 检测 Python 环境 2. 安装依赖 3. 创建桌面快捷方式 4. 下载最新版本 OpenAkita 
  1. 安装完成后,双击桌面图标启动,或在命令行输入:
openakita # 或者简写 ak 

优点:

  • 支持后续一键升级:openakita --update,永远跟最新版。
  • 对有经验的人来说,比图形化更可控。

2.3 方案二:桌面安装包(最像普通软件,新手友好)

如果你不想碰命令行,推荐用这个方案。

步骤:

  1. 点击访问 OpenAkita 下载页面
  2. 下载 Windows 安装包
  1. 双击运行安装向导:
    1. 同意许可协议
    2. 选择安装路径(默认即可)
    3. 安装完成后,会自动启动初始化向导(中文图形界面)。
  2. 通过桌面图标启动即可使用。

小贴士:如果电脑里没有 Python,安装程序会自动引导下载并安装(嵌入式 Python),对你完全透明。


第三章:配置蓝耘(Lanyun)平台 API 密钥

3.1 为什么选蓝耘 DeepSeek?

蓝耘元生代推理引擎已经上线 DeepSeek R1/V3 满血版,支持在线体验和 API 调用,按 token 计费,还有 500 万不限时的免费 token 额度。

对于本地跑 OpenAkita 这种“重度使用”的场景,非常适合。

3.2 获取蓝耘 API Key

  1. 登录蓝耘元生代智算云平台
  2. 进入体验中心 / 模型服务
  3. 找到 DeepSeek R1 / V3 的模型页面。
  1. 创建 API Key
  2. 在“API 平台 > 立即接入管理”中,点击“创建 API KEY”。
  1. 创建后,复制并保存好,后面要用。

3.3 在 OpenAkita 中接入蓝耘 DeepSeek

在 OpenAkita 管理界面中:

  1. 添加 LLM 端点
  2. 找到“模型管理 / LLM 端点”设置,新增一个上游。
  1. 填写关键参数(示例):https://maas.lanyun.net/v1(以蓝耘控制台实际为准)
    1. 类型:DeepSeek(或 OpenAI 兼容)
    2. API 地址(Base URL):
      • 如果你用的是蓝耘 MaaS:按蓝耘文档填,例如:
    1. API Key:粘贴你刚才创建的蓝耘 API Key
    2. 模型映射:
      • 模型名称可以填:/maas/deepseek-ai/DeepSeek-V3
    3. 端点名称:自动生成即可
    4. 模型能力:按需勾选(文本、代码、工具调用等)
  1. 保存后,在模型列表中设为默认或高优先级,这样 OpenAkita 会优先走蓝耘 DeepSeek。

第四章:配置 OpenAkita(含飞书机器人)

4.1 配置飞书机器人

如果你希望直接在飞书里和 AI 对话,需要先创建飞书机器人。

  1. 进入飞书开放平台,创建企业自建应用,选择“机器人”类型。
  1. 在权限管理中,批量导入权限
    你可以直接粘贴下面这段 JSON,覆盖原有权限(示例):
{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } } 
  1. 在“凭证与基础信息”中,复制 App IDApp Secret
  2. 在 OpenAkita 的飞书接入配置中,填入刚才的 App ID 和 App Secret,按向导完成配置。
  1. 在飞书开放平台的“事件与回调”中:
    1. 订阅方式选择“长连接订阅”(不要选 HTTP 回调)
    2. 添加事件:至少包含 im.message.receive_v1(接收消息)
    3. 保存设置。

建议:飞书的事件订阅配置,可以在 OpenAkita 完全部署好之后再在飞书后台统一设置,避免向导卡住。

4.2 部署 OpenAkita 核心模块

在 OpenAkita 的设置中心里,根据你的需求勾选功能模块

终端命令与系统设置(根据自己的需求选择)

然后等待 OpenAkita 自动下载并安装对应依赖和技能包。

4.3 验证部署是否成功

安装完成后,进入 OpenAkita 主界面:

  • 在“状态 / 健康检查”中,查看各个模块是否都显示为“已连接 / 正常”。
  • 在飞书中,尝试给机器人发一条消息,看是否能收到 OpenAkita 的回复。
  • 侧边栏还有很多功能,。。。。。

如果这些都正常,说明你的本地 AI 助手已经跑起来了。


第五章:对比 OpenClaw,说说 OpenAkita 的真实优缺点

5.1 体验上的差异

  • 上手门槛
    • OpenAkita:图形化向导非常完善,真正可以做到“5 分钟上手,全程不敲命令”。
    • OpenClaw:虽然也有向导,但整体偏“工程师友好”,需要习惯终端和配置文件。
  • 多 Agent 协作
    • OpenAkita:多 Agent 是核心卖点,有专门的任务拆解、进度追踪、仪表盘。
    • OpenClaw:支持多 Agent 路由,但更偏“渠道隔离”,而不是复杂任务拆解与并行。
  • IM 接入
    • OpenAkita:对飞书、钉钉、企微等国内平台支持更好,开箱即用。
    • OpenClaw:主打 WhatsApp、Telegram、Slack、Discord 等“国际通道”,对国内 IM 也可以接,但需要更多配置。
  • 桌面自动化
    • OpenAkita:明确支持桌面自动化、鼠标键盘操作、浏览器自动化,适合“操作 Windows 电脑”的场景。
    • OpenClaw:浏览器控制非常强,但对“桌面应用”的操作更多是依赖系统命令,GUI 自动化不如 OpenAkita 那么直观。

5.2 实际使用建议

  • 如果你主要在 Windows 上办公,常用飞书 / 钉钉,想要一个“图形化配置 + 多 Agent 协作”的本地 AI 团队 → 优先选 OpenAkita
  • 如果你更关注多渠道统一收件箱(WhatsApp / Telegram / Slack / Discord 都接进来),愿意折腾命令行和配置文件 → 选 OpenClaw 也不错,社区生态非常成熟。

总结:从“只会聊天”到“真正干活”的本地 AI 中台

通过 OpenAkita + 蓝耘 DeepSeek API,我们可以在本地搭建一个:

  • 低延迟、高可用的 AI 中转站:模型可以按需切换,一个挂了自动切下一个。
  • 真正能干活的助手:操作电脑、管理文件、浏览器自动化、定时任务,不再是“嘴强王者”。
  • 可扩展的 AI 中台:技能市场可以不断安装新的能力,也可以自己写技能,把内部业务流程接进来。

后续你可以考虑:

  • 做一个反向代理 / 负载均衡,把多个蓝耘 API Key 或其他模型源接入进来。
  • 把 OpenAkita 部署到内网服务器,给整个团队用。
  • 结合 OpenClaw 的多渠道优势,把 WhatsApp / Telegram 也接入进来,实现“一个大脑,多端响应”。

如果你是第一次接触这类项目,建议先用 OpenAkita 的桌面版把整体流程跑通,再去研究 OpenClaw 的网关和渠道配置,你会发现两者的理念其实非常互补。

Read more

基于LangGraph实现模块化Skills型AI Agent

基于LangGraph+DeepSeek+Serper 实现模块化Skills型AI Agent 在AI Agent的落地实践中,模块化Skills设计是提升Agent可扩展性、可维护性的核心方案——将搜索、计算、文件处理等能力封装为独立Skills,Agent可根据需求自主调用,无需修改核心流程。本文将基于LangGraph、DeepSeek大模型和Serper搜索工具,手把手带你实现一个具备工具调用能力的Skills型AI Agent,同时解决开发中常见的MRO冲突、Pydantic验证等问题,代码可直接复制运行。 一、前言:为什么选择Skills型Agent? 传统AI Agent多采用「硬编码工具调用」的方式,新增能力需修改核心逻辑,耦合度高且难以维护。而Skills型Agent将能力拆分为独立的Skill模块,每个Skill遵循统一接口,具备以下优势: 1. 模块化解耦:新增/修改Skill无需改动Agent核心流程,即插即用; 2. 智能决策:大模型自主判断是否调用Skill、调用哪个Skill,无需人工干预; 3. 可扩展性强:支持搜索、计算、代码解释、数

By Ne0inhk

OpenClaw:打造你的私人 AI 助手,把 AI 变成你的数字管家

谈到 AI 助手,你会想到什么?ChatGPT、Siri、还是手机里的智能语音助手?这些云端服务固然强大,但它们有一个共同的弱点——你的数据都在别人的服务器上。 今天要介绍的 OpenClaw,是一款可以运行在你自己设备上的个人 AI 助手。它像是一个数字管家,通过 WhatsApp、Telegram、飞书、微信等多种渠道与你对话,帮你处理各种任务。 为什么要用本地 AI 助手? 数据隐私,由你掌控 在云时代,我们的对话、搜索、工作记录都存储在第三方服务器上。即使服务商承诺保护隐私,但"信任"这个词本身就带着风险。 OpenClaw 的理念很简单:数据留在我这儿,AI 逻辑你自己选。你可以在自己的电脑、服务器或私有云上运行它,所有会话记录都存储在本地。 一套系统,全平台覆盖 你可能有多个聊天工具:WhatsApp 用于国际沟通、

By Ne0inhk
告别“选择困难症”:我是如何用 AI Ping 实现大模型自由,还能省下 50% 成本的?

告别“选择困难症”:我是如何用 AI Ping 实现大模型自由,还能省下 50% 成本的?

告别“选择困难症”:我是如何用 AI Ping 实现大模型自由,还能省下 50% 成本的? * 写在最前面 * 场景一:从“写脚本卡壳”到“批量生成” * 场景二:开发路上的“万能插头” * 使用感受 * 一点小建议与期待 * 写在最后 🌈你好呀!我是 是Yu欸🚀 感谢你的陪伴与支持~ 欢迎添加文末好友🌌 在所有感兴趣的领域扩展知识,不定期掉落福利资讯(*^▽^*) 写在最前面 版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。 在这个大模型“百花齐放”甚至“百模大战”的时代,作为一名既要写代码开发,又要频繁输出技术内容(写博文、做视频)的开发者,我每天最大的烦恼就是: “今天这个任务,

By Ne0inhk
AutoGPT+Python:让AI智能体自动完成复杂任务的终极指南

AutoGPT+Python:让AI智能体自动完成复杂任务的终极指南

AutoGPT+Python:让AI智能体自动完成复杂任务的终极指南 引言:在人工智能迈向自主化的新阶段,AutoGPT作为基于大语言模型(LLM)的自主智能体代表,正掀起一场让AI自己思考、自主执行的技术革命。当它遇上Python的全栈生态与极致灵活性,开发者不再只是调用AI接口,而是能深度定制专属智能体——让AI听懂自然语言、拆解复杂目标、调用外部工具、联网检索信息、迭代优化结果,独立完成从市场调研、内容创作、代码开发到自动化运维的全流程任务。 本文从核心原理、本地部署、Python实战、插件扩展、生产优化五大维度,手把手带你从0到1搭建可落地、可监控、可进化的AI智能体系统,不管是AI爱好者、全栈开发者还是创业者,都能靠这份指南,掌握下一代人机协作的核心生产力。 一、先搞懂:AutoGPT到底是什么? 传统ChatGPT类模型是被动应答,你问一句它答一句,需要人工一步步引导;而AutoGPT是自主智能体,你只给它一个最终目标,它就能自己完成: * 任务拆解:把复杂目标拆成可执行子步骤 * 自主决策:判断下一步该做什么、调用什么工具 * 记忆管理:短期记忆存上下文

By Ne0inhk