完全免费!用阿里开源 CoPaw 养一只属于自己的 AI 小助理(魔搭启动,亲测有效)

先说一个小插曲:前几天我写了一篇介绍 Maxclaw 的文章,当时还是免费的,结果文章发出去没多久,Minimax 就悄悄改了规则,变成 39 元一个月起步了。当然,39 元其实也不贵——毕竟你去闲鱼搜"openclaw 代安装",随便一个人工服务都要 50 块往上走。但既然有完全免费的方案,为什么不用呢?

今天这篇,就给大家介绍一个我亲自跑通的、完全免费的方案:用阿里开源的 CoPaw,在魔搭创空间里一键启动,服务器免费,Token 每天 2000 次免费调用,不用装任何本地环境,浏览器打开就能用。


CoPaw 是什么?先用一分钟搞清楚

很多人第一次听到 CoPaw 这个名字,会以为是某种宠物应用。其实它的全称是 Co Personal Agent Workstation,是阿里 AgentScope 团队在 2026 年 2 月正式开源的一个个人智能体工作台。名字谐音"co-paw",官方的意象就是一只随时在你身边的"小爪子"伙伴——这也是为什么 AI 圈子里大家喜欢叫它"小龙虾"或者"爪子"。

GitHub 仓库地址是:agentscope-ai/CoPaw,代码完全开放,文档也比较完整。

那它能做什么?简单说,CoPaw 是一个可以接入多个通讯平台、拥有记忆和技能的 AI 助理框架。你可以把它理解成一个"AI 助理的底座",搭好之后,你在钉钉、飞书、QQ、Discord 甚至 iMessage 里跟它说话,它都能回应你,而且记得你说过什么。

具体来说,它有这几个核心能力:

多通道接入。一个助理,多个入口。钉钉、飞书、QQ、Discord、iMessage,按需接,不用每个平台单独配一套 AI。你在飞书里问它"帮我总结一下今天的新闻",它就给你总结;你在钉钉里问它"明天几点有会",它就帮你查日历。

数据私有化。这一点对很多人来说很重要。本地部署时,你的对话记录、记忆配置全部存在自己的机器或自己的云上,不会上传到任何第三方服务器。阿里云开发者文档里也明确写了"数据全程私有化部署,绝不上传云端"。

内置 Skills,也支持自定义。CoPaw 自带了一批实用技能:定时任务、PDF 和 Office 文件处理、新闻摘要、文件阅读等。更重要的是,你可以用 Python 自己写 Skills,放进去之后会自动加载,不需要重启服务。

定时主动推送。这个功能我个人觉得很有意思——你可以配置让助理每天早上把新闻摘要、待办事项主动推到你的钉钉或飞书,不用你每次主动去问。这才是"助理"该有的样子。


为什么选魔搭创空间?

在正式开始教程之前,先解释一下为什么推荐用魔搭创空间这个方式,而不是直接本地部署。

本地部署 CoPaw 需要你的机器上有 Python 环境、能跑 Docker,还要处理各种依赖版本问题。对于有开发经验的人来说不是大问题,但对于只是想"用起来"的普通用户,这个门槛实在不低。

魔搭创空间(ModelScope Studio) 是魔搭社区提供的云端开发运行环境。CoPaw 官方在这里放了一键打开的入口,你什么都不用装,浏览器里就能跑起来一个完整的 CoPaw 实例。更关键的是:服务器是免费的,不用花一分钱买云服务器

这就是今天这个方案的核心价值:零成本、零环境依赖、五分钟内跑起来


手把手教程:从零到能聊天

第一步:打开 CoPaw 创空间

在浏览器里访问下面这个地址:

https://modelscope.cn/studios/fork?target=AgentScope/CoPaw 

如果你还没有魔搭账号,页面会提示你登录或注册。注册很简单,用手机号就能搞定,整个过程不超过两分钟。

登录之后,页面会显示 CoPaw 的创空间主页。

第二步:Fork 出你自己的实例

页面上有一个"Fork"或者"打开"的按钮,点一下,魔搭就会为你创建一个独立的 CoPaw 实例。这个过程通常需要一到两分钟,等环境初始化完成,页面上会出现 CoPaw 的 Console 入口,或者直接打开一个带聊天界面的页面。

这里有一个很重要的细节:Fork 出来的是你自己的独立空间,和别人的完全隔离,不会互相影响。

第三步:把空间设为非公开

这一步很多人会忽略,但我强烈建议你做。

创空间默认可能是对外可见的,也就是说任何人都可以访问你的 CoPaw 界面,看到你的对话记录,甚至用你的配置和 API Key 来调用模型。

在 Studio 的设置里,把空间改为非公开(Private),这样只有你自己能访问。这一步是保护你的数据和 Key 的基本操作,不要跳过。

第四步:配置模型 API Key

这是整个教程里最关键的一步。CoPaw 本身是一个框架,它需要调用一个语言模型来"思考和回答",所以你必须给它配置一个模型的 API Key。

在 CoPaw 的 Web 界面里,找到 Settings → Models(或者等价的入口),你会看到一个模型提供商的列表。

我选择的是 ModelScope(魔搭)自带的模型服务,原因很简单:每天有 2000 次免费调用额度,对于个人日常使用完全够用,而且不需要额外注册其他平台的账号。

如果你想用其他模型,也可以选百炼(DashScope)、OpenAI 等,填入对应的 API Key 即可。百炼的 Key 可以在阿里云百炼控制台申请,新用户通常也有免费额度。

配置好之后,在聊天框里发一句话测试一下,能收到回复就说明配通了。


接入钉钉或飞书:让助理住进你的工作软件

很多人用 CoPaw 的终极目标,不是在网页上聊天,而是让助理"住"进钉钉或飞书——这样你在工作的时候,随时 @ 一下就能用,不用切换窗口。

CoPaw 的"多通道"功能就是为此设计的。它的原理是:在钉钉或飞书里创建一个机器人或应用,把你发给机器人的消息转发给 CoPaw,CoPaw 处理完再把回复发回对应的应用。对你来说,就是在钉钉里 @ 机器人说话,机器人用 AI 回答你。

大致流程如下:

第一,在对应平台(钉钉开放平台或飞书开放平台)创建一个应用或机器人,拿到 AppKey、AppSecret 等凭证。

第二,在 CoPaw Console 的 Channels 设置里,添加对应通道,把刚才拿到的凭证填进去。

第三,配置回调地址。这里有一个好消息:用魔搭创空间时,CoPaw 会有一个公网可访问的地址,你直接把这个地址填到钉钉或飞书的回调配置里就行,不需要做内网穿透,省去了很多麻烦。

第四,保存配置,到应用里发一条消息测试,能收到回复就成功了。

每个平台的具体字段和截图,官方 Channels 文档里都有详细说明,地址是:

https://copaw.agentscope.io/docs/channels 

建议直接对照文档操作,比我在这里复述更准确,也更不容易出错。


用下来的真实感受

我自己跑通这套方案之后,用了大概一周时间,说几点真实感受。

上手门槛比想象中低很多。 整个流程下来,最花时间的是等魔搭创空间初始化,真正需要你动手操作的部分不超过十分钟。对于没有任何开发经验的人来说,只要按步骤来,基本不会卡住。

每天 2000 次调用其实很够用。 我平时用助理主要是问问题、整理文档、偶尔让它帮我写几段文字,一天下来很少超过 200 次调用。2000 次的上限对于个人用户来说基本是无限的。

飞书接入体验很顺畅。 我把 CoPaw 接入了飞书,现在工作群里有一个专门的 AI 机器人,需要的时候 @ 一下,几秒钟就有回复。比每次打开网页、切换 AI 工具方便太多。

Skills 的扩展性值得期待。 我还没有深入玩自定义 Skills,但看了一下官方的示例代码,逻辑很清晰,用 Python 写一个简单的 Skill 并不难。后续打算写一个自动抓取特定网站更新的 Skill,到时候再出一篇文章。


常见问题

Q:魔搭账号好注册吗?
很好注册,手机号直接搞定,不需要实名认证或者企业信息。

Q:创空间会一直免费吗?
目前是免费的,魔搭社区对个人开发者和学习用途一直比较友好。当然,平台政策可能会变,这一点无法保证,但即使以后收费,费用应该也不会高。

Q:数据安全吗?
如果你用的是魔搭创空间部署,数据存在魔搭的服务器上,不是完全本地化的。如果对数据隐私有严格要求,建议在自己的服务器或本地机器上部署。官方 Quick Start 文档里有完整的本地部署教程。

Q:遇到问题去哪里求助?
首先看官方文档的 FAQ 部分,覆盖了大多数常见问题。如果文档里没有,可以去 GitHub 仓库提 Issue,或者加入官方的 Discord 群或钉钉群,响应速度还不错。


相关链接整理

把所有有用的链接汇总在这里,建议收藏:

  • 魔搭 CoPaw 创空间(一键打开):https://modelscope.cn/studios/fork?target=AgentScope/CoPaw
  • CoPaw 官方文档:https://copaw.agentscope.io/
  • GitHub 仓库:https://github.com/agentscope-ai/CoPaw
  • Channels 文档(钉钉/飞书等接入):https://copaw.agentscope.io/docs/channels
  • 百炼控制台(申请 API Key):https://bailian.console.aliyun.com/

最后说几句

说实话,AI 助理这个赛道现在产品太多了,各种"一键部署""免费使用"的口号满天飞,但真正跑通之后还能稳定用的并不多。CoPaw 这个方案我自己验证过,流程是通的,Token 是真免费的,飞书接入也是真能用的。

当然,它也不是没有局限。魔搭创空间的方式适合轻度使用和体验,如果你有更高的稳定性要求、更大的调用量,或者对数据隐私有严格要求,还是建议走本地部署或者自己买一台轻量云服务器来跑。

但如果你只是想先体验一下"拥有一个自己的 AI 助理"是什么感觉,这个方案是目前我见过的门槛最低、成本最小、效果最直接的方式。

试试吧,五分钟,真的够了。

Read more

使用LLaMA-Factory对GLM-4-9B-Chat进行LoRA微调

使用LLaMA-Factory对GLM-4-9B-Chat进行LoRA微调 在大模型应用日益普及的今天,如何快速、低成本地定制一个符合特定场景需求的语言模型,已经成为开发者和企业关注的核心问题。直接全参数微调动辄数十GB显存消耗,对大多数团队而言并不现实。而像 LoRA(Low-Rank Adaptation) 这样的高效微调技术,配合如 LLaMA-Factory 这类开箱即用的框架,正让“平民化”大模型定制成为可能。 本文将以 GLM-4-9B-Chat 为例,带你从零开始完成一次完整的 LoRA 微调流程——从环境配置、数据清洗到训练部署,最终得到一个可独立运行的专属模型。整个过程无需深入理解底层原理,也能在单卡 A10/A100 上顺利完成。 环境准备:搭建可编辑的开发环境 首先确保你的系统已安装 Python ≥ 3.10 和支持 CUDA 的 PyTorch 版本(推荐 torch==2.1.0+cu118 或更高)

By Ne0inhk
蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

目录 一、本篇背景: 二、蓝耘与通义万相 2.1 概述: 2.1蓝耘简介: 2.2通义万相 2.1 简介: 注册并使用蓝耘元生代智算平台: 完成通义万相 2.1部署并调用:  个人代码调用过程及感受: 环境准备: 代码实现: 保存生成的图像: 三、蓝耘与通义万相 2.1 结合的优势: 3.1强大的计算力支撑: 3.2高效的数据处理与传输: 3.3定制化与优化: 四、蓝耘调用通义万相 2.1 API 的实际代码演示: 4.1环境搭建: 4.2图像生成代码示例: 4.3文本生成代码示例: 五、蓝耘与通义万相 2.1

By Ne0inhk
当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念?

当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念?

当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念? “用awk处理这个文本吧”——最近,不少程序员在使用GitHub Copilot时,都会被这句突如其来的建议“刷屏”。原本只是用来补全代码、生成函数的AI助手,如今却频频跳出代码编辑器的范畴,主动推荐awk、sed、grep这些Linux命令行工具,甚至能生成一套完整的Shell命令流水线,帮你完成数据清洗、日志分析等复杂操作。 这一现象迅速在技术圈引发热议:有人惊叹AI已经具备了“Linux思维”,能像资深运维工程师一样用底层工具高效解决问题;也有人调侃,Copilot怕不是被“老派”程序员的代码喂偏了,动辄就awk,仿佛图形界面在它眼里就是“不够极客”的代名词;更有人担忧,当AI都能熟练运用这些经典Unix工具时,程序员的核心技能会不会被颠覆,我们是不是真的要重新捡起尘封的man手册? 今天,我们就从Copilot的awk执念说起,聊聊AI与Linux底层工具的碰撞,拆解这场“AI Linux思维”热潮背后的真相、价值与争议,顺便解答每个开发者都关心的问题:当AI开始用命令行思考,我们该顺势而为,还是保

By Ne0inhk
OpenCode 踩坑记:GitHub Copilot 按次计费?我的账单为何暴涨 3 倍!

OpenCode 踩坑记:GitHub Copilot 按次计费?我的账单为何暴涨 3 倍!

从发现问题到深度分析,一篇文章搞懂 OpenCode + GitHub Copilot 的正确打开方式 🌟 前言:一个意外的"惊喜" 进入2026年,朋友圈和技术群里都在讨论一个新的AI开发工具 —— OpenCode,号称是 AI 编程助手的"终极形态",支持 GitHub Copilot、Claude、GPT-4 等多种模型,还能自动执行多步任务。 作为一个爱折腾的程序员,我立马下载试用。我有 GitHub Copilot 企业订阅,而且OpenCode还支持,用起来应该不花钱吧? 结果一周后,我收到了公司 IT 部门的"温馨提醒" 📧: “您的 Copilot 使用量是团队平均水平的 3 倍,请注意合理使用…” 什么情况??我明明只是让

By Ne0inhk