手把手教你:在 Windows 部署 OpenAkita 并接入飞书模块,实现真正能干活的本地 AI 助手

手把手教你:在 Windows 部署 OpenAkita 并接入飞书模块,实现真正能干活的本地 AI 助手

目 录

前言

到 2026 年,单纯会“聊天”的 AI 已经不够用了。我们需要的是那种能真正帮你干活的助理:操作电脑、浏览网页、整理文件、定时跑任务、写代码、处理 Excel,还能通过飞书 / 钉钉 / 微信 / Telegram 随时响应你。

OpenAkita 就是这样一个开源的多智能体框架(GitHub:openakita/openakita,Apache 2.0 许可)。它不是某个大模型,而是一整支“AI 团队”:多个 Agent 协作分工、自动纠错、有长期记忆、还能在本地持续进化。相比之下,OpenClaw 更偏“个人 AI 助手 + 本地控制平面”,强调一套网关打通所有聊天工具和浏览器自动化,但不会刻意强调多 Agent 协作和图形化配置。

这篇文章会手把手带你从 Windows 11 开始,一步步部署 OpenAkita,并接入蓝耘 DeepSeek 满血版 API,整个过程尽量不敲命令,用桌面图形化搞定。适合:程序员、效率工具爱好者、想在本地搭一个“私有 AI 中台”的人。


第一章:为什么选 OpenAkita,而不是直接用 OpenClaw?

1.1 当前 AI 助理的几个现实痛点

  • 大模型只会聊天:你问“帮我整理一下这份 Excel”,它告诉你“你可以用 Python 的 pandas 这样写”,但不会真的帮你打开文件、改好发给你。
  • 官方接口又贵又卡:高峰期限流、排队,按量计费看着便宜,一天重度用下来账单也很可观。
  • 闭源产品功能锁死:想本地跑、想接国内模型、想深度集成自己的业务系统?基本别想。
  • 自己搭一套 Agent:配置复杂,要懂 Python、Docker、数据库,劝退一大波人。

1.2 OpenAkita 的核心优势(对比 OpenClaw)

先简单对比一下 OpenAkita 和 OpenClaw,方便你选型:

维度OpenAkitaOpenClaw
定位多智能体 AI 助手框架,强调“AI 团队协作”个人 AI 助手平台,强调“本地网关 + 多渠道接入”
部署体验官方提供 Windows 桌面安装包 + 图形化向导,全程可以不碰命令行官方推荐 CLI 向导(openclaw onboard),需要习惯终端
多 Agent多个 Agent 专业分工、并行执行、自动接力、可视化仪表盘支持多 Agent 路由,不同渠道/账户可映射到不同 Agent 工作区
工具/技能内置 89+ 工具,技能市场一键安装 GitHub 技能内置浏览器控制、定时任务、Webhooks,也有技能市场(ClawdHub)
IM 接入原生支持飞书、钉钉、企微、Telegram、QQ、OneBot 等 6 大平台支持 WhatsApp、Telegram、Slack、Discord、Teams 等几十种渠道
桌面自动化明确支持桌面自动化、鼠标键盘操作、浏览器自动化(Playwright + Windows API)强调浏览器控制、系统命令执行,但“桌面自动化”更偏浏览器层面
上手门槛强调“5 分钟上手、零命令行”,对新手非常友好对新手有一定命令行门槛,但社区教程很多

一句话总结:

  • 想要:**多 Agent 协作 + 图形化配置 + 桌面自动化 + 飞书/钉钉等国内 **IM → 选 OpenAkita。
  • 想要:个人 24/7 在线助手 + 多渠道统一收件箱 + 浏览器/系统级自动化 → 选 OpenClaw。

1.3 谁最适合用 OpenAkita?

  • 日常效率党:汇总文件、批量改名、定时提醒、自动发日报。
  • 程序员 / 开发者:写代码、调试、GitHub 自动化、搭建内部 AI 工具链。
  • 内容创作者:批量搜集素材、整理笔记、生成报告、定时发布内容。
  • 想控制成本的人:用蓝耘 DeepSeek 满血版,按量计费,搭配本地缓存,几毛钱跑一天。

第二章:Windows 下安装 OpenAkita(两种方案)

2.1 准备工作

建议按“生产部署标准”来准备环境,避免后面踩坑:

  • 操作系统:Windows 11(Win10 也可以,但建议 11)
  • 内存:≥ 16 GB(重度自动化建议 32 GB)
  • 磁盘:≥ 50 GB 可用空间(模型日志、缓存、技能会占用不少空间)
  • 网络:能访问 GitHub、蓝耘平台,国内网络可能需要代理
  • 账号:
    • 蓝耘元生代账号(用于 DeepSeek API)
    • 飞书开放平台账号(如果你要接飞书机器人)

2.2 方案一:一键脚本安装(适合能接受 PowerShell 的用户)

这是官方推崇的 Windows 部署方式,一般 3–8 分钟就能搞定。

步骤:

  1. 以管理员身份打开 PowerShell
    右键开始菜单 → Windows PowerShell (管理员)。
  2. 执行一键脚本:
irm https://raw.githubusercontent.com/openakita/openakita/main/scripts/quickstart.ps1 | iex 

脚本会自动:

1. 检测 Python 环境 2. 安装依赖 3. 创建桌面快捷方式 4. 下载最新版本 OpenAkita 
  1. 安装完成后,双击桌面图标启动,或在命令行输入:
openakita # 或者简写 ak 

优点:

  • 支持后续一键升级:openakita --update,永远跟最新版。
  • 对有经验的人来说,比图形化更可控。

2.3 方案二:桌面安装包(最像普通软件,新手友好)

如果你不想碰命令行,推荐用这个方案。

步骤:

  1. 点击访问 OpenAkita 下载页面
  2. 下载 Windows 安装包
  1. 双击运行安装向导:
    1. 同意许可协议
    2. 选择安装路径(默认即可)
    3. 安装完成后,会自动启动初始化向导(中文图形界面)。
  2. 通过桌面图标启动即可使用。

小贴士:如果电脑里没有 Python,安装程序会自动引导下载并安装(嵌入式 Python),对你完全透明。


第三章:配置蓝耘(Lanyun)平台 API 密钥

3.1 为什么选蓝耘 DeepSeek?

蓝耘元生代推理引擎已经上线 DeepSeek R1/V3 满血版,支持在线体验和 API 调用,按 token 计费,还有 500 万不限时的免费 token 额度。

对于本地跑 OpenAkita 这种“重度使用”的场景,非常适合。

3.2 获取蓝耘 API Key

  1. 登录蓝耘元生代智算云平台
  2. 进入体验中心 / 模型服务
  3. 找到 DeepSeek R1 / V3 的模型页面。
  1. 创建 API Key
  2. 在“API 平台 > 立即接入管理”中,点击“创建 API KEY”。
  1. 创建后,复制并保存好,后面要用。

3.3 在 OpenAkita 中接入蓝耘 DeepSeek

在 OpenAkita 管理界面中:

  1. 添加 LLM 端点
  2. 找到“模型管理 / LLM 端点”设置,新增一个上游。
  1. 填写关键参数(示例):https://maas.lanyun.net/v1(以蓝耘控制台实际为准)
    1. 类型:DeepSeek(或 OpenAI 兼容)
    2. API 地址(Base URL):
      • 如果你用的是蓝耘 MaaS:按蓝耘文档填,例如:
    1. API Key:粘贴你刚才创建的蓝耘 API Key
    2. 模型映射:
      • 模型名称可以填:/maas/deepseek-ai/DeepSeek-V3
    3. 端点名称:自动生成即可
    4. 模型能力:按需勾选(文本、代码、工具调用等)
  1. 保存后,在模型列表中设为默认或高优先级,这样 OpenAkita 会优先走蓝耘 DeepSeek。

第四章:配置 OpenAkita(含飞书机器人)

4.1 配置飞书机器人

如果你希望直接在飞书里和 AI 对话,需要先创建飞书机器人。

  1. 进入飞书开放平台,创建企业自建应用,选择“机器人”类型。
  1. 在权限管理中,批量导入权限
    你可以直接粘贴下面这段 JSON,覆盖原有权限(示例):
{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } } 
  1. 在“凭证与基础信息”中,复制 App IDApp Secret
  2. 在 OpenAkita 的飞书接入配置中,填入刚才的 App ID 和 App Secret,按向导完成配置。
  1. 在飞书开放平台的“事件与回调”中:
    1. 订阅方式选择“长连接订阅”(不要选 HTTP 回调)
    2. 添加事件:至少包含 im.message.receive_v1(接收消息)
    3. 保存设置。

建议:飞书的事件订阅配置,可以在 OpenAkita 完全部署好之后再在飞书后台统一设置,避免向导卡住。

4.2 部署 OpenAkita 核心模块

在 OpenAkita 的设置中心里,根据你的需求勾选功能模块

终端命令与系统设置(根据自己的需求选择)

然后等待 OpenAkita 自动下载并安装对应依赖和技能包。

4.3 验证部署是否成功

安装完成后,进入 OpenAkita 主界面:

  • 在“状态 / 健康检查”中,查看各个模块是否都显示为“已连接 / 正常”。
  • 在飞书中,尝试给机器人发一条消息,看是否能收到 OpenAkita 的回复。
  • 侧边栏还有很多功能,。。。。。

如果这些都正常,说明你的本地 AI 助手已经跑起来了。


第五章:对比 OpenClaw,说说 OpenAkita 的真实优缺点

5.1 体验上的差异

  • 上手门槛
    • OpenAkita:图形化向导非常完善,真正可以做到“5 分钟上手,全程不敲命令”。
    • OpenClaw:虽然也有向导,但整体偏“工程师友好”,需要习惯终端和配置文件。
  • 多 Agent 协作
    • OpenAkita:多 Agent 是核心卖点,有专门的任务拆解、进度追踪、仪表盘。
    • OpenClaw:支持多 Agent 路由,但更偏“渠道隔离”,而不是复杂任务拆解与并行。
  • IM 接入
    • OpenAkita:对飞书、钉钉、企微等国内平台支持更好,开箱即用。
    • OpenClaw:主打 WhatsApp、Telegram、Slack、Discord 等“国际通道”,对国内 IM 也可以接,但需要更多配置。
  • 桌面自动化
    • OpenAkita:明确支持桌面自动化、鼠标键盘操作、浏览器自动化,适合“操作 Windows 电脑”的场景。
    • OpenClaw:浏览器控制非常强,但对“桌面应用”的操作更多是依赖系统命令,GUI 自动化不如 OpenAkita 那么直观。

5.2 实际使用建议

  • 如果你主要在 Windows 上办公,常用飞书 / 钉钉,想要一个“图形化配置 + 多 Agent 协作”的本地 AI 团队 → 优先选 OpenAkita
  • 如果你更关注多渠道统一收件箱(WhatsApp / Telegram / Slack / Discord 都接进来),愿意折腾命令行和配置文件 → 选 OpenClaw 也不错,社区生态非常成熟。

总结:从“只会聊天”到“真正干活”的本地 AI 中台

通过 OpenAkita + 蓝耘 DeepSeek API,我们可以在本地搭建一个:

  • 低延迟、高可用的 AI 中转站:模型可以按需切换,一个挂了自动切下一个。
  • 真正能干活的助手:操作电脑、管理文件、浏览器自动化、定时任务,不再是“嘴强王者”。
  • 可扩展的 AI 中台:技能市场可以不断安装新的能力,也可以自己写技能,把内部业务流程接进来。

后续你可以考虑:

  • 做一个反向代理 / 负载均衡,把多个蓝耘 API Key 或其他模型源接入进来。
  • 把 OpenAkita 部署到内网服务器,给整个团队用。
  • 结合 OpenClaw 的多渠道优势,把 WhatsApp / Telegram 也接入进来,实现“一个大脑,多端响应”。

如果你是第一次接触这类项目,建议先用 OpenAkita 的桌面版把整体流程跑通,再去研究 OpenClaw 的网关和渠道配置,你会发现两者的理念其实非常互补。

Read more

基础算法篇(4)(蓝桥杯常考点)—数据结构(进阶)

基础算法篇(4)(蓝桥杯常考点)—数据结构(进阶)

前言 这期将会讲到基础算法篇里面的数据结构(进阶),主要包括单调栈,单调队列,并查集,扩展域并查集,带权并查集,字符串哈希,Trie树。 数据结构(进阶)正文 单调栈 里面存储的单增或者单减的栈 应用: 1.寻找当前元素左侧,离它最近,并且比它大的元素在哪 2.寻找当前元素左侧,离它最近,并且比它小的元素在哪 3.寻找当前元素右侧,离它最近,并且比它大的元素在哪 4.寻找当前元素右侧,离它最近,并且比它小的元素在哪 寻找当前元素左侧,离它最近,并且比它大的元素在哪 int a[N]里面存数(已存好) ret里面存的答案 stack<int>st;//维护一个单调递减的栈,里面存的是下标 for(int

By Ne0inhk
2025 腾讯广告算法大赛 Baseline 项目解析

2025 腾讯广告算法大赛 Baseline 项目解析

项目概述 2025 腾讯广告算法大赛 Baseline,一个简单的序列推荐系统,主要用于建模用户和物品的交互序列,并利用多模态特征(文本、图像等 embedding)来提升推荐效果。 核心文件功能 1. main.py - 主训练脚本 * 负责模型训练的整体流程 * 包含参数解析、数据加载、模型初始化、训练循环等 * 支持断点续训和仅推理模式 * 使用 TensorBoard 记录训练日志 main.py 代码 import argparse import json import os import time from pathlib import Path import numpy as np import torch from torch.utils.

By Ne0inhk
Flutter 三方库 image_compare_2 的鸿蒙化适配指南 - 实现像素级的图像分块对比、支持感知哈希(pHash)与端侧视觉差异检测实战

Flutter 三方库 image_compare_2 的鸿蒙化适配指南 - 实现像素级的图像分块对比、支持感知哈希(pHash)与端侧视觉差异检测实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 image_compare_2 的鸿蒙化适配指南 - 实现像素级的图像分块对比、支持感知哈希(pHash)与端侧视觉差异检测实战 前言 在进行 Flutter for OpenHarmony 的图像处理、自动化 UI 测试或内容防侵权应用开发时,如何科学地判断两张图片是否“相似”?简单的字节对比显然无法处理微小的色差或尺寸缩放。image_compare_2 是一个功能完备的图像对比算法库。它支持从均值哈希(aHash)到分块均方差(MSE)等多种度量算法。本文将指导大家如何在鸿蒙真机上利用该库构建精准的视觉检测链路。 一、原原理性解析 / 概念介绍 1.1 基础原理 image_compare_2 通过将原始图片灰度化、缩小尺寸并进行频域变换(或像素聚合)

By Ne0inhk
【MARL】深入理解多智能体近端策略优化(MAPPO)算法与调参

【MARL】深入理解多智能体近端策略优化(MAPPO)算法与调参

📢本篇文章是博主强化学习(RL)领域学习时,用于个人学习、研究或者欣赏使用,并基于博主对相关等领域的一些理解而记录的学习摘录和笔记,若有不当和侵权之处,指出后将会立即改正,还望谅解。文章分类在👉强化学习专栏:        【强化学习】(47)---《深入理解多智能体近端策略优化(MAPPO)算法与调参》 深入理解多智能体近端策略优化(MAPPO)算法与调参 目录 0 前言 1 MAPPO核心特点 2 On-Policy 和 Off-Policy 2.1. On-Policy 算法 2.2 Off-Policy 算法 对比总结 形象比喻 On-Policy 的小孩 Off-Policy 的小孩 它们的关键区别: 3 MAPPO 是 On-Policy,如何学习历史经验? 4

By Ne0inhk