OpenCowork 实测:支持本地文件、飞书机器人的 Windows AI 助手(只需配置 Token)

目的

找一款window 本地ai助手,但有如下要求 1)windows一键安装,带gui界面,操作简单 2)直接操作本地文件,能生成和写入本地文件内容 3)配置token 即可,无需绑定账号登陆 

测试效果

OpenCowork 可直接操作本地电脑文件,并支持接入飞书机器人应用,实现类似 OpenClaw 的电脑操作能力;
但整体更适合本地文档生成、资料整理、代码或文本批量处理等场景。相比云端 AI,在生成速度、工具能力和复杂任务支持方面仍有差距,尤其在长文档生成和多工具协作时效率与稳定性较弱,因此更适合作为本地文件处理的辅助工具,而非替代云端 AI。

OpenCowork 很多自动化能力依赖python,你可以自己升级一下python,然后让OpenCowork 检测环境是不是最新的,并升级一下;

1 安装 OpenCowork 客户端

下载地址
https://github.com/AIDotNet/OpenCowork
找右侧侧 releases ,我这里是x64 所以下载amd

在这里插入图片描述


默认安装,换成磁盘路径,安装后客户端如下图

在这里插入图片描述

2 配置 token

点击左上角用户头像,点击头像下的设置,弹窗如下图,一直脱到最下面
输入打开完整版设置

在这里插入图片描述


选择模型,输入模型的api Key;联通性选择选择你使用的模型,点击检测即可
到这里配置完成,点击左侧工具栏的对话框,开始实际操作

在这里插入图片描述

3 测试

3.1 选择工具要操作的路径

最好选择一个只跟工作内容相关的干净的文件夹,并把需要的资料移入进文件夹内
这里历史测试:用桌面

在这里插入图片描述

3.2 测试功能

1)联网框的联网搜索,可根据实际情况选择启用和关闭

在这里插入图片描述


2) 输入后开始工作

在这里插入图片描述


3)测试效果
生成3页 word 5分钟,但也能接受(毕竟含网页搜索);豆包测试室1分钟(立马输出,1分钟生成完);
效果还算可以,毕竟花钱用token了;这种工具严重依赖于本地的skill,且本地生成速速远低于云厂商;毕竟你的能力是ai 工具能力 是低于云端AI服务。

在这里插入图片描述

4 添加skill

如下图:点击获取skill,会跳转至下拉地址https://skills.open-cowork.shop/dashboard,把获取的 skill 粘贴如下位置,点击发送请求

目前不推荐安装其它skill 日用满足,因为现在有skill 投毒问题

在这里插入图片描述

下面为再次申请skill的地址

在这里插入图片描述

5 app 聊天接入

这里试了企业微信,因为需要:WS 中继地址,就没做深入的研究;飞书测试成功了;

聊天频有 Feishu Bot 、DingTalk Bot 、WeCom Bot、QQ Bot、Telegram Bot、 Discord Bot 、WhatsApp Bot , 目前不确定哪个不需要内网穿透 or 公网ip就能用; 

5.1 接入飞书

5.1 创建应用

在这里插入图片描述
在这里插入图片描述

5.2 应用添加机器人能力并导入权限

如下图:添加机器人能力,然后点击菜单的权限管理: 导入权限如下

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "contact:user.employee_id:readonly", "corehr:file:download", "event:ip_list", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "cardkit:card:write" ], "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"] } } 
在这里插入图片描述

5.3 查看APP ID和秘钥

如下图:点击appId 和秘钥

在这里插入图片描述

5.4 发布应用

点击菜单的版本管理和发布,填写信息,发布应用

在这里插入图片描述

5.5 配置事件与回调改成长连接

在这里插入图片描述


然后点击下方的添加时间按钮:输入 im.message.receive_v1
切记:重新部署应用,这里发布了新版本 1.0.1

在这里插入图片描述

5.6 配置openCowork

点击左侧的 Feishu Bot,然后粘贴应用 appId 和秘钥
然后滚动到最下方:允许读取的路径可选配,然后启用

在这里插入图片描述

5.7 测试

1)应用商店下载飞书并登陆: 在下方更多菜单 的工作台,添加常用应用,搜索oepnCoWork;
2)然后电脑OpenCowork对话框的加号,勾选聊天频道飞书;
3)点击机器人输入现在几点了,桌面上有什么等内容,就能自动回复和操作电脑上了;

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

总结

整体体验下来,OpenCowork 更适合用于 本地文档生成、资料整理、代码或文本批量处理 等需要直接操作本地文件的场景。

不过相比云端 AI 平台,它在 生成速度、工具能力和任务复杂度支持 上仍有差距;尤其在长文档生成、多工具协作等场景下,效率和稳定性不如云端服务。因此更适合作为 本地文件处理的辅助工具,而不是完全替代云端 AI。

Read more

1000多万次播放背后的AIGC方法论:从爆款视频《牌子》开始思考

这篇深度分析文章,基于《牌子》(SIGN)这部现象级AIGC短片的全面拆解,构建一套完整的AIGC内容创作方法论。将分章节系统性地展开,涵盖技术解析、创作方法论、产业影响和未来展望等多个维度。 引言:一个内容事件的诞生 2026年初,中国视频平台Bilibili上出现了一条名为《牌子》(SIGN)的7分钟短片。这部由独立创作者使用AI工具制作的奇幻短片,在一周内获得了超过1000万次播放、80多万点赞、30多万投币,被著名导演郭帆转发点赞,在YouTube上引发国际观众的热议,甚至专业影视后期团队都在上班时间逐帧分析其制作技术。 这不是一次简单的"技术展示",而是一个内容事件的诞生——它标志着AIGC(人工智能生成内容)从"实验室玩具"正式迈入"大众审美"的领域。更重要的是,它证明了一件事:在正确的创作方法论指导下,单个创作者借助AI工具,可以产出媲美专业团队的内容。 本文将从《牌子》的逐帧技术解析出发,深入探讨其背后的创作逻辑,提炼出一套可复用的AIGC内容创作方法论,

一文读懂UGC、PGC、PUGC、OGC、MGC、BGC与AIGC

一文读懂UGC、PGC、PUGC、OGC、MGC、BGC与AIGC 在当今这个信息爆炸的数字时代,我们无时无刻不被各种形式的内容所包围——从短视频、直播到图文资讯、专业评测。你或许经常听到UGC、PGC、AIGC这些听起来很“高级”的缩写,但它们究竟代表什么?彼此之间又有什么区别和联系?今天,就让我们一次性说清楚内容创作领域的各种“GC”(Generated Content)。 文章目录 * 一文读懂UGC、PGC、PUGC、OGC、MGC、BGC与AIGC * 1 核心区别:是“谁”在创作内容? * 2 UGC (User Generated Content) - 用户生成内容 * 3 PGC (Professionally Generated Content) - 专业生成内容 * 4

最完整whisperX入门指南:从安装到实现第一个语音识别功能

最完整whisperX入门指南:从安装到实现第一个语音识别功能 【免费下载链接】whisperXm-bain/whisperX: 是一个用于实现语音识别和语音合成的 JavaScript 库。适合在需要进行语音识别和语音合成的网页中使用。特点是提供了一种简单、易用的 API,支持多种语音识别和语音合成引擎,并且能够自定义语音识别和语音合成的行为。 项目地址: https://gitcode.com/gh_mirrors/wh/whisperX 你还在为语音识别工具安装复杂、识别准确率低、时间戳不精准而烦恼吗?本文将带你从零开始,一步步掌握whisperX的安装配置,并实现你的第一个语音识别功能。读完本文,你将能够:搭建稳定的whisperX运行环境、使用命令行和Python API两种方式进行语音识别、获取精准的单词级时间戳、实现多 speaker 区分标注。 whisperX 简介 whisperX 是一个基于 OpenAI Whisper 的语音识别工具,它在 Whisper 的基础上进行了改进,提供了更精准的单词级时间戳和 speaker 区分功能。

【2024最全Seedance 2.0解析】:基于17篇顶会论文+3家AIGC大厂内部技术文档的架构逆向推演

第一章:Seedance 2.0 双分支扩散变换器架构解析 Seedance 2.0 是面向高保真视频生成任务设计的新型双分支扩散变换器(Dual-Branch Diffusion Transformer),其核心创新在于解耦时空建模路径:一条分支专注帧内空间语义重建,另一条分支显式建模跨帧时序动态。该架构摒弃了传统单流Transformer对时空维度的粗粒度联合编码,转而通过协同门控机制实现分支间细粒度特征对齐。 双分支协同机制 空间分支采用分层ViT结构,以16×16 patch嵌入输入,逐级下采样并保留局部细节;时间分支则将同一空间位置在多帧中的token沿时间轴堆叠,经轻量级时序注意力模块处理。两分支输出通过Cross-Gating Fusion(CGF)模块融合,其门控权重由共享的上下文感知投影器动态生成。 关键组件实现 class CrossGatingFusion(nn.Module): def __init__(self, dim): super().__init__() self.proj_s = nn.Linear(dim, dim) # 空间分支门控投影