OpenCowork 实测:支持本地文件、飞书机器人的 Windows AI 助手(只需配置 Token)

目的

找一款window 本地ai助手,但有如下要求 1)windows一键安装,带gui界面,操作简单 2)直接操作本地文件,能生成和写入本地文件内容 3)配置token 即可,无需绑定账号登陆 

测试效果

OpenCowork 可直接操作本地电脑文件,并支持接入飞书机器人应用,实现类似 OpenClaw 的电脑操作能力;
但整体更适合本地文档生成、资料整理、代码或文本批量处理等场景。相比云端 AI,在生成速度、工具能力和复杂任务支持方面仍有差距,尤其在长文档生成和多工具协作时效率与稳定性较弱,因此更适合作为本地文件处理的辅助工具,而非替代云端 AI。

OpenCowork 很多自动化能力依赖python,你可以自己升级一下python,然后让OpenCowork 检测环境是不是最新的,并升级一下;

1 安装 OpenCowork 客户端

下载地址
https://github.com/AIDotNet/OpenCowork
找右侧侧 releases ,我这里是x64 所以下载amd

在这里插入图片描述


默认安装,换成磁盘路径,安装后客户端如下图

在这里插入图片描述

2 配置 token

点击左上角用户头像,点击头像下的设置,弹窗如下图,一直脱到最下面
输入打开完整版设置

在这里插入图片描述


选择模型,输入模型的api Key;联通性选择选择你使用的模型,点击检测即可
到这里配置完成,点击左侧工具栏的对话框,开始实际操作

在这里插入图片描述

3 测试

3.1 选择工具要操作的路径

最好选择一个只跟工作内容相关的干净的文件夹,并把需要的资料移入进文件夹内
这里历史测试:用桌面

在这里插入图片描述

3.2 测试功能

1)联网框的联网搜索,可根据实际情况选择启用和关闭

在这里插入图片描述


2) 输入后开始工作

在这里插入图片描述


3)测试效果
生成3页 word 5分钟,但也能接受(毕竟含网页搜索);豆包测试室1分钟(立马输出,1分钟生成完);
效果还算可以,毕竟花钱用token了;这种工具严重依赖于本地的skill,且本地生成速速远低于云厂商;毕竟你的能力是ai 工具能力 是低于云端AI服务。

在这里插入图片描述

4 添加skill

如下图:点击获取skill,会跳转至下拉地址https://skills.open-cowork.shop/dashboard,把获取的 skill 粘贴如下位置,点击发送请求

目前不推荐安装其它skill 日用满足,因为现在有skill 投毒问题

在这里插入图片描述

下面为再次申请skill的地址

在这里插入图片描述

5 app 聊天接入

这里试了企业微信,因为需要:WS 中继地址,就没做深入的研究;飞书测试成功了;

聊天频有 Feishu Bot 、DingTalk Bot 、WeCom Bot、QQ Bot、Telegram Bot、 Discord Bot 、WhatsApp Bot , 目前不确定哪个不需要内网穿透 or 公网ip就能用; 

5.1 接入飞书

5.1 创建应用

在这里插入图片描述
在这里插入图片描述

5.2 应用添加机器人能力并导入权限

如下图:添加机器人能力,然后点击菜单的权限管理: 导入权限如下

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "contact:user.employee_id:readonly", "corehr:file:download", "event:ip_list", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "cardkit:card:write" ], "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"] } } 
在这里插入图片描述

5.3 查看APP ID和秘钥

如下图:点击appId 和秘钥

在这里插入图片描述

5.4 发布应用

点击菜单的版本管理和发布,填写信息,发布应用

在这里插入图片描述

5.5 配置事件与回调改成长连接

在这里插入图片描述


然后点击下方的添加时间按钮:输入 im.message.receive_v1
切记:重新部署应用,这里发布了新版本 1.0.1

在这里插入图片描述

5.6 配置openCowork

点击左侧的 Feishu Bot,然后粘贴应用 appId 和秘钥
然后滚动到最下方:允许读取的路径可选配,然后启用

在这里插入图片描述

5.7 测试

1)应用商店下载飞书并登陆: 在下方更多菜单 的工作台,添加常用应用,搜索oepnCoWork;
2)然后电脑OpenCowork对话框的加号,勾选聊天频道飞书;
3)点击机器人输入现在几点了,桌面上有什么等内容,就能自动回复和操作电脑上了;

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

总结

整体体验下来,OpenCowork 更适合用于 本地文档生成、资料整理、代码或文本批量处理 等需要直接操作本地文件的场景。

不过相比云端 AI 平台,它在 生成速度、工具能力和任务复杂度支持 上仍有差距;尤其在长文档生成、多工具协作等场景下,效率和稳定性不如云端服务。因此更适合作为 本地文件处理的辅助工具,而不是完全替代云端 AI。

Read more

万字长文带你梳理Llama开源家族:从Llama-1到Llama-3,看这一篇就够了!

万字长文带你梳理Llama开源家族:从Llama-1到Llama-3,看这一篇就够了!

在AI领域,大模型的发展正以前所未有的速度推进技术的边界。 北京时间4月19日凌晨,Meta在官网上官宣了Llama-3,作为继Llama-1、Llama-2和Code-Llama之后的第三代模型,Llama-3在多个基准测试中实现了全面领先,性能优于业界同类最先进的模型。 纵观Llama系列模型,从版本1到3,展示了大规模预训练语言模型的演进及其在实际应用中的显著潜力。这些模型不仅在技术上不断刷新纪录,更在商业和学术界产生了深远的影响。因此,对Llama模型不同版本之间的系统对比,不仅可以揭示技术进步的具体细节,也能帮助我们理解这些高级模型如何解决现实世界的复杂问题。 1、Llama进化史 本节将对每个版本的Llama模型进行简要介绍,包括它们发布的时间和主要特点。 1.1 Llama-1 系列 Llama-1 [1]是Meta在2023年2月发布的大语言模型,是当时性能非常出色的开源模型之一,有7B、13B、30B和65B四个参数量版本。Llama-1各个参数量版本都在超过1T token的语料上进行了预训训练,其中,最大的65B参数的模型在2,048张A100 80

Llama Factory

1. Llama Factory 到底是什么? 1.1 简单比喻 想象你要定制一辆汽车: 传统方式(没有 Llama Factory): * 你需要自己造发动机、设计车身、组装零件 * 需要懂机械工程、电子技术、材料科学 * 整个过程复杂、容易出错、耗时很长 使用 Llama Factory: * 你只需要: 1. 选择基础车型(预训练模型) 2. 告诉工厂你的需求(训练数据) 3. 选择改装方案(训练方法) 4. 工厂自动完成所有改装 * 你不需要懂技术细节,只需要提需求 1.2 一句话定义 Llama Factory 是一个"AI模型定制工厂",它让普通人也能轻松地定制和训练自己的大语言模型。 2. 为什么需要

【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯冷启动数据的作用 * 冷启动数据设计 * 💯多阶段训练的作用 * 阶段 1:冷启动微调 * 阶段 2:推理导向强化学习(RL) * 阶段 3:拒绝采样与监督微调(SFT) * 阶段 4:多场景强化学习 * 💯代码示例:冷启动数据与多阶段训练的实现 * 1. 冷启动微调阶段 * 作用与应用: * 2. 推理导向的强化学习阶段 * 作用与应用: * 3. 拒绝采样与监督微调阶段 * 作用与应用: * 4. 多场景强化学习 * 作用与应用: * 总体流程 * DeepSeek 中的应用 * 💯总结 💯前言 在人工智能领域,深度学习模型的训练和优化往往需要大量的标注数据和计算资源。然而,面对复杂任务时,即使是最先进的技术和大量的训练数据也未必能够保证模型的最优表现。DeepSeek

GPU PRO 4 - 5.1 An Aspect-Based Engine Architecture 笔记

本笔记仅为个人的理解,如果有误欢迎指出 An Aspect-Based Engine Architecture 一种基于方面的引擎架构         不是很明白为什么GPU的书籍会有游戏引擎架构的文章。         这里Aspect在文章中的意义更像是表述一个功能模块,在Java中有将Aspect翻译成切面,但是Java切面主要是横向的代码注入,与本文的概念不相符。 大多数系统架构都会考虑将各个功能封装成模块或者组件,在面向对象编程的思想下,这个封装是基于对象去实现的,本文则描述了一种在引擎层面的封装功能的架构思想,封装后的产物被称为Aspect,每一个Aspect负责提供一些功能子集,并通过一个通用的接口与引擎核心通信。 引擎核心:         引擎核心的功能是保存游戏或者仿真时的数据结构以及相关状态,功能Aspect将会与这些数据进行交互。一般来说引擎核心会定义一些接口,外部的Aspect则通过接口访问当前的游戏数据                  用MVC架构的角度去理解的话引擎核心相当于M层,而各个Aspect则相当于C层。