OpenCowork 实测:支持本地文件、飞书机器人的 Windows AI 助手(只需配置 Token)

目的

找一款window 本地ai助手,但有如下要求 1)windows一键安装,带gui界面,操作简单 2)直接操作本地文件,能生成和写入本地文件内容 3)配置token 即可,无需绑定账号登陆 

测试效果

OpenCowork 可直接操作本地电脑文件,并支持接入飞书机器人应用,实现类似 OpenClaw 的电脑操作能力;
但整体更适合本地文档生成、资料整理、代码或文本批量处理等场景。相比云端 AI,在生成速度、工具能力和复杂任务支持方面仍有差距,尤其在长文档生成和多工具协作时效率与稳定性较弱,因此更适合作为本地文件处理的辅助工具,而非替代云端 AI。

OpenCowork 很多自动化能力依赖python,你可以自己升级一下python,然后让OpenCowork 检测环境是不是最新的,并升级一下;

1 安装 OpenCowork 客户端

下载地址
https://github.com/AIDotNet/OpenCowork
找右侧侧 releases ,我这里是x64 所以下载amd

在这里插入图片描述


默认安装,换成磁盘路径,安装后客户端如下图

在这里插入图片描述

2 配置 token

点击左上角用户头像,点击头像下的设置,弹窗如下图,一直脱到最下面
输入打开完整版设置

在这里插入图片描述


选择模型,输入模型的api Key;联通性选择选择你使用的模型,点击检测即可
到这里配置完成,点击左侧工具栏的对话框,开始实际操作

在这里插入图片描述

3 测试

3.1 选择工具要操作的路径

最好选择一个只跟工作内容相关的干净的文件夹,并把需要的资料移入进文件夹内
这里历史测试:用桌面

在这里插入图片描述

3.2 测试功能

1)联网框的联网搜索,可根据实际情况选择启用和关闭

在这里插入图片描述


2) 输入后开始工作

在这里插入图片描述


3)测试效果
生成3页 word 5分钟,但也能接受(毕竟含网页搜索);豆包测试室1分钟(立马输出,1分钟生成完);
效果还算可以,毕竟花钱用token了;这种工具严重依赖于本地的skill,且本地生成速速远低于云厂商;毕竟你的能力是ai 工具能力 是低于云端AI服务。

在这里插入图片描述

4 添加skill

如下图:点击获取skill,会跳转至下拉地址https://skills.open-cowork.shop/dashboard,把获取的 skill 粘贴如下位置,点击发送请求

目前不推荐安装其它skill 日用满足,因为现在有skill 投毒问题

在这里插入图片描述

下面为再次申请skill的地址

在这里插入图片描述

5 app 聊天接入

这里试了企业微信,因为需要:WS 中继地址,就没做深入的研究;飞书测试成功了;

聊天频有 Feishu Bot 、DingTalk Bot 、WeCom Bot、QQ Bot、Telegram Bot、 Discord Bot 、WhatsApp Bot , 目前不确定哪个不需要内网穿透 or 公网ip就能用; 

5.1 接入飞书

5.1 创建应用

在这里插入图片描述
在这里插入图片描述

5.2 应用添加机器人能力并导入权限

如下图:添加机器人能力,然后点击菜单的权限管理: 导入权限如下

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "contact:user.employee_id:readonly", "corehr:file:download", "event:ip_list", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "cardkit:card:write" ], "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"] } } 
在这里插入图片描述

5.3 查看APP ID和秘钥

如下图:点击appId 和秘钥

在这里插入图片描述

5.4 发布应用

点击菜单的版本管理和发布,填写信息,发布应用

在这里插入图片描述

5.5 配置事件与回调改成长连接

在这里插入图片描述


然后点击下方的添加时间按钮:输入 im.message.receive_v1
切记:重新部署应用,这里发布了新版本 1.0.1

在这里插入图片描述

5.6 配置openCowork

点击左侧的 Feishu Bot,然后粘贴应用 appId 和秘钥
然后滚动到最下方:允许读取的路径可选配,然后启用

在这里插入图片描述

5.7 测试

1)应用商店下载飞书并登陆: 在下方更多菜单 的工作台,添加常用应用,搜索oepnCoWork;
2)然后电脑OpenCowork对话框的加号,勾选聊天频道飞书;
3)点击机器人输入现在几点了,桌面上有什么等内容,就能自动回复和操作电脑上了;

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

总结

整体体验下来,OpenCowork 更适合用于 本地文档生成、资料整理、代码或文本批量处理 等需要直接操作本地文件的场景。

不过相比云端 AI 平台,它在 生成速度、工具能力和任务复杂度支持 上仍有差距;尤其在长文档生成、多工具协作等场景下,效率和稳定性不如云端服务。因此更适合作为 本地文件处理的辅助工具,而不是完全替代云端 AI。

Read more

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

Mac Mini M4 配备了苹果自家研发的 M1/M2/M4 芯片,具有强大的处理能力,能够支持本地跑一些大模型,尤其是在使用如 Ollama、Llama、ComfyUI 和 Stable Diffusion 这类 AI 相关工具时,性能表现非常好。本教程将指导你如何在 Mac Mini M4 上本地部署并运行这些大模型,涵盖从环境搭建到使用的全流程。 一、准备工作 1. 确保系统更新 确保你的 macOS 版本已更新到最新的版本(例如 macOS 13.0 以上),这将确保兼容性和性能。 安装 Homebrew(macOS 包管理工具) Homebrew 是 macOS 上非常流行的包管理工具,它帮助你方便地安装各种软件。在终端中输入以下命令来安装

Qt Creator配置AI编程插件GitHub Copilot

Qt Creator配置AI编程插件GitHub Copilot

第一步:GitHub Copilot插件安装 QtCreator18.0为例,点击左侧Extensions菜单,在上方搜索栏搜索 GitHub Copilot, 然后点击右上角Active启动后重启QtCreator即可完成该工具安装. 第二步:copilot.vim 环境配置 去GitHub下载copilot.vim压缩包:copilot.vim。下载地址:https://github.com/github/copilot.vim 随后解压到自定义位置。 将其目录下.\dist\language-server.js地址填入设置的Path to language-serverjs项。 第三步:安装Node.js 去Node.js官网下载并安装node.js:node.js官网。 同样将node.exe地址链接到设置的Node.js path项。下载地址:https://nodejs.org/zh-cn 第四步:

多模态大模型垂直微调实战:基于Qwen3-VL-4B-Thinking与 Llama Factory的完整指南

多模态大模型垂直微调实战:基于Qwen3-VL-4B-Thinking与 Llama Factory的完整指南

文章目录 * 一 多模态大模型 * 1.1 多模态垂直微调 * 1.2 微调的意义 * 二 多模态基座模型选择 * 2.1 多模态模型对比表 * 2.2 选型建议矩阵 * 2.3 微调与部署视角选择 * 三 Qwen3-VL-4B-Thinking理解微调(Llama Factory) * 3.1 数据集制作 * 3.2 实验平台租用和基本环境配置 * 3.3 数据集上传和注册 * 3.4 启动llama factory和网页访问 * 3.5 关键训练参数可视化配置 * 3.6 模型效果使用体验 * 3.7 模型导出 一 多模态大模型 * 多模态大模型(Multimodal

告别 Copilot 时代:Cursor, Kiro 与 Google Antigravity 如何重新定义编程?

如果说 GitHub Copilot 开启了 AI 辅助编程的“副驾驶”时代,那么 2024-2025 年则是 AI Agent(智能体) 全面接管 IDE 的元年。 现在的开发者不再满足于简单的代码补全,我们需要的是能理解整个项目架构、能自主规划任务、甚至能像真人同事一样工作的“编程搭子”。 今天,我们盘点三款目前最受瞩目、处于风口浪尖的 AI 编程工具:Cursor、Kiro 以及 Google 的重磅新品 Antigravity。无论你是想提升效率,还是想尝鲜最前沿的 Agentic Workflow,这三款神器都不容错过。 1. Cursor:当下体验最好的 AI 代码编辑器 定位:目前最成熟、最流畅的 VS Code 替代者 Cursor