2026年3月1日-阿里CoPaw开源炸场!百度云1分钱服务器秒变多平台AI个人助理

2026年3月1日-阿里CoPaw开源炸场!百度云1分钱服务器秒变多平台AI个人助理

1. 前言

在AI个人助理赛道竞争愈发激烈的今天,如何拥有一个真正"为你工作、与你成长"的AI助手成为了技术圈的热门话题。市面上的AI助手要么功能单一只能聊天,要么接入渠道有限只支持网页端,要么部署门槛极高需要专业运维知识,普通开发者想要拥有一个多平台、可扩展、支持记忆的私人AI助理一直是个难题。

还记得上个月我们那篇1分钱部署私人AI助手!百度云OpenClaw极速版,3分钟搞定零代码吗?当时百度智能云推出了0.01元抢购轻量应用服务器的活动,不少小伙伴都成功上车拿到了一台2核4G的云服务器。虽然那个1分钱活动已经结束了,但服务器还在手里呢!今天我们就要物尽其用,在这台百度云服务器上部署阿里刚开源的重磅项目——CoPaw(协同个人智能体工作台),让你的服务器从单一的OpenClaw升级为支持钉钉、飞书、QQ等多平台接入的全能AI个人助理。

1772335012805

这2天CoPaw非常火爆,话不多说,今天我们就在百度云轻量应用服务器上手把手教大家部署这个阿里开源的AI个人助理平台,体验和感受一下CoPaw"你的搭档小爪子"的强大能力。

2. 项目介绍

什么是CoPaw?

CoPaw是阿里AgentScope团队推出的开源AI个人助理平台,名称寓意"你的搭档小爪子"(Co-Paw)及"协同个人智能体工作台"(Co Personal Agent Workstation)。项目采用Apache 2.0开源协议,主打"安装极简、本地与云上均可部署;支持多端接入、能力轻松扩展"。

简单来说,CoPaw就是一个可以帮你连接各种聊天平台、具备记忆能力、支持自定义技能扩展的AI个人助理框架。和之前我们部署的OpenClaw相比,CoPaw在多平台接入和个性化定制方面有着更大的优势。

GitHub地址:https://github.com/agentscope-ai/CoPaw

✨ 核心能力

  • 🌐 全域触达:支持钉钉、飞书、QQ、Discord、iMessage等多个频道的无缝接入,一个助手,随心连接
  • 🧠 个性化掌控:记忆与个性化设置完全由你掌控,支持本地或云端部署,还能定时向指定频道发送协作内容
  • 🔧 灵活扩展:内置定时任务(Cron)和自定义技能目录(Skills),系统自动加载无需绑定,没有厂商锁定
  • 💻 多端部署:支持pip安装、一键脚本、Docker容器、魔搭创空间、阿里云ECS等多种部署方式
  • 🤖 本地模型:支持llama.cpp(跨平台)和MLX(Apple Silicon)本地运行大模型
1772335178519

🛠️ 技术栈

组件说明
核心框架AgentScope Runtime
记忆引擎ReMe 技术
编程语言Python 3.10 ~ ❤️.14
控制台Web UI(端口8088)
部署方式pip / 一键脚本 / Docker
协议Apache License 2.0

🎯 应用场景

  • 社交媒体追踪:小红书、知乎、Reddit热帖摘要,视频更新提醒
  • 生产力工具整合:邮件摘要、日历管理、联系人同步
  • 创意内容生成:从选题到成片的全流程创作辅助
  • 知识研究与学习:资讯追踪、知识库检索、学术论文速读
  • 桌面文件管理:文档整理、文件检索、自动化处理

CoPaw vs OpenClaw 对比

特性OpenClawCoPaw
开源团队GitHub社区阿里AgentScope团队
部署难度极简(百度一键部署)简单(pip/Docker)
平台接入飞书/钉钉/企微/QQ钉钉/飞书/QQ/Discord/iMessage等
记忆能力基础对话记忆深度个性化记忆(ReMe引擎)
技能扩展百度官方Skills自定义技能目录,自动加载
定时任务不支持内置Cron定时任务
本地模型不支持支持llama.cpp/MLX
控制台百度云管理面板Web控制台(8088端口)

好家伙,从对比来看CoPaw在功能丰富度和可扩展性上确实更胜一筹,特别是记忆引擎、定时任务和本地模型支持这几个特性,让它更适合作为长期使用的个人AI助理。

3. 部署实战

接下来我们就在百度云轻量应用服务器上部署CoPaw。如果你之前通过1分钱活动拿到了百度云服务器,现在正好派上用场;如果没有,用其他云服务器也完全可以,部署步骤是一样的。

3.1 连接百度云服务器

首先我们需要通过SSH连接到百度云轻量应用服务器。目前我这服务还有半个月到期,先把它用起来,嘿嘿。

image-20260301112149205

我这里使用FinalShell链接百度云轻量应用服务器

image-20260301112215758
image-20260301112241700

连接成功后,我们先看一下服务器的基本信息:

# 查看系统信息cat /etc/os-release # 查看内存和磁盘free-hdf-h
image-20260301112334092

3.2 环境准备

CoPaw需要Python 3.10及以上版本,我们先检查一下服务器的Python环境:

# 检查Python版本 python3 --version

如果Python版本低于3.10,我们需要安装合适的版本:

# 更新系统包apt update &&apt upgrade -y# 安装Python 3.10+所需的依赖aptinstall-y software-properties-common add-apt-repository ppa:deadsnakes/ppa -yapt update # 安装Python 3.11aptinstall-y python3.11 python3.11-venv python3.11-dev # 验证安装 python3.11 --version

之前平台已经安装python3.12, 上面步骤就可以省略了。如果你的服务器没有上述环境是需要安装python运行环境的。

image-20260301112518003

建议创建一个虚拟环境来隔离CoPaw的依赖:

# 创建虚拟环境 python3 -m venv copaw-env # 激活虚拟环境source copaw-env/bin/activate # 确认Python版本 python --version pip --version
image-20260301112616145

我们使用python虚拟运行环境,这样运行环境不破坏已经运行其他应用和服务。

3.3 安装CoPaw

环境准备好了,接下来安装CoPaw。官方提供了多种安装方式,在百度云服务器上我们推荐使用pip方式:

方式一:pip安装(推荐)

# pip安装CoPaw pip install grpcio>=1.58.0 -i https://pypi.tuna.tsinghua.edu.cn/simple/ pip install copaw 
image-20260301112712942

方式二:一键安装脚本

如果你不想手动管理Python环境,也可以使用官方一键安装脚本,它会自动处理Python环境:

# Linux一键安装curl-fsSL https://copaw.agentscope.io/install.sh |bash

方式三:Docker安装

如果服务器已经安装了Docker,也可以使用Docker方式部署:

# 拉取CoPaw镜像docker pull agentscope/copaw:latest # 运行CoPaw容器docker run -d\--name copaw \-p8088:8088 \-v copaw-data:/root/.copaw \--restart unless-stopped \ agentscope/copaw:latest 

3.4 初始化配置

安装完成后,我们需要初始化CoPaw的配置。这一步会引导你设置大模型API Key等关键参数:

# 交互式初始化(推荐,会逐步引导配置) copaw init 

初始化过程中会询问以下关键配置:

  • 大模型API Key:支持DashScope(阿里云通义)、ModelScope等
  • 频道配置:选择你要接入的消息平台(钉钉/飞书/QQ等)
  • 记忆存储:选择本地存储或云端存储
image-20260301120054069

关于配置这块我们可以在图形界面配置安装,后面给大家讲解,这里就简单快速过一下。

模型这里也有选择 DashScope(阿里云通义)、ModelScope等

image-20260301120221019

我们选择魔搭社区提供的免费的api

image-20260301120449622

默认的模型提供2个Qwen3-235B-A22B-Instruct-2507、DeepSeek-V3.2 我就选第一个

image-20260301120629007

如果你想快速体验,也可以使用默认配置:

# 使用默认配置初始化 copaw init --defaults
image-20260301115914832

初始化完成后,你也可以通过环境变量或.env文件来调整配置:

# 创建.env配置文件cat> .env <<'EOF' # 大模型API配置(以通义千问为例) DASHSCOPE_API_KEY=your-dashscope-api-key # 或者使用其他模型服务 # OPENAI_API_KEY=your-openai-api-key # MODELSCOPE_API_KEY=your-modelscope-api-key EOF

3.5 启动服务

配置完成,激动人心的时刻来了!启动CoPaw服务:

# 启动CoPaw copaw app --host0.0.0.0 --port8088
image-20260301121243302

启动成功后,你会看到控制台输出服务运行信息,默认Web控制台端口为8088

重要:如果你使用的是百度云轻量应用服务器,需要在防火墙中放通8088端口:

# 如果使用iptables iptables -A INPUT -p tcp --dport8088-j ACCEPT # 或者在百度云控制台的防火墙规则中添加8088端口
image-20260301121055819

使用下面命令查看网络

 netstat -ntpl 
image-20260301123550690

3.6 控制台配置

打开浏览器,访问 http://你的服务器IP:8088/,即可进入CoPaw的Web控制台。

image-20260301123744200

补充说明:这样通过公网访问这个WEB 不安全,因为这个WEB没有登录鉴权,第一配置我只是方便使用。

大家启动的时候还是用copaw app 来启动,这样就不会映射到公网了。

image-20260301123959611

模型配置

在控制台的设置页面中,你可以配置大模型API:

  • DashScope(通义千问):填入阿里云通义千问的API Key
  • ModelScope:填入魔搭平台的API Key
  • 其他模型:支持OpenAI兼容接口
image-20260301124059871

我前面通过命令行方式配置了模型,所以能看到魔搭模型配置成功。这个copaw 配置管理还是比较符合中文人的使用习惯的。对小白也比较友好。如果大家安装openclaw 不熟悉的小伙伴也是可以选择这个作为替代。

频道接入

CoPaw的亮点之一就是多平台接入,在控制台中可以配置:

  • 钉钉:填入钉钉机器人的AppKey和AppSecret
  • 飞书:填入飞书机器人的App ID和App Secret
  • QQ:配置QQ机器人接入信息
  • Discord:填入Discord Bot Token

我这里就接入钉钉

image-20260301124309587

下面我们重点介绍一下钉钉的配置

钉钉的频道接入
  1. 打开 钉钉开发者后台
    • Client ID(即 AppKey)
    • Client Secret(即 AppSecret)
  2. (可选) 将服务器 IP 加入白名单 — 调用钉钉开放平台 API(如下载用户发送的图片和文件)时需要此配置。在应用设置中进入 “安全设置→服务器出口 IP”,添加运行 CoPaw 的机器的公网 IP。可在终端执行 curl ifconfig.me 查看公网 IP。若未配置白名单,图片和文件下载将报 Forbidden.AccessDenied.IpNotInWhiteList 错误。

在"基础信息→凭证与基础信息"中获取:

client

在"应用发布→版本管理与发布"中创建新版本,填写基础信息后保存

创建新版本
保存

配置机器人基础信息,设置消息接收模式为 Stream 模式(流式接收),点击发布

机器人基础信息
Stream模式+发布

在"应用能力→添加应用能力"中添加 「机器人」

添加机器人

进入"应用开发→企业内部应用→钉钉应用→创建 应用"

钉钉开发者后台
绑定应用

可以在console前端配置,或者修改~/.copaw/config.json

方法1: 在console前端配置

从“控制→频道”找到DingTalk,点击后填入刚刚获取的Client IDClient Secret

console

方法2: 修改~/.copaw/config.json

config.json 里找到 channels.dingtalk,填入对应信息,例如:

复制

"dingtalk":{"enabled":true,"bot_prefix":"[BOT]","client_id":"你的 Client ID","client_secret":"你的 Client Secret"}

Skills技能配置

CoPaw支持自定义技能扩展,你可以在控制台中管理已加载的技能:

目前这个CoPaw提供几个skill 默认都给你安装了,还是比较贴心的

image-20260301130814986

3.7 功能测试验证

一切配置完毕,我们来测试一下CoPaw的各项功能。

Web端对话测试

直接在Web控制台中与CoPaw对话:

image-20260301131045334

多平台接入测试

如果你配置了钉钉或飞书,可以在对应平台上测试,我这边接入钉钉就给大家看一下效果。

image-20260301131927489

4. 总结

今天主要带大家了解并实现了阿里开源CoPaw(协同个人智能体工作台)在百度云轻量应用服务器上的完整部署流程,该AI个人助理平台以"AgentScope Runtime + ReMe记忆引擎"为核心优势,结合多平台接入和个性化AI助理场景需求,通过百度云轻量应用服务器与CoPaw Web控制台(8088端口),形成了一套从pip安装到多平台AI助理的全链路开源解决方案。通过这套实践方案,有一定基础的开发者能够高效突破传统AI助手部署的技术门槛——借助pip一键安装(pip install copaw)、交互式初始化配置(copaw init引导设置API Key和频道信息)、以及Web控制台可视化管理(模型配置、频道接入、Skills技能管理),无需复杂的微服务架构知识、无需手动对接各平台API、无需从零开发记忆系统,就能快速拥有支持钉钉飞书QQ等多平台接入的AI个人助理(如本次演示的"百度云服务器部署CoPaw并实现多平台对话")。

无论是社交媒体热帖摘要追踪、邮件日历生产力工具整合,还是创意内容全流程生成、知识研究资讯追踪,都能通过CoPaw的Skills技能扩展和Cron定时任务完成配置,极大提升了个人效率和AI助理的实用价值。在实际应用中,CoPaw不仅支持DashScope通义千问、ModelScope等多种大模型接入,还内置llama.cpp和MLX本地模型运行能力,适配性远优于依赖单一云端模型的传统方案;特别是通过ReMe记忆引擎的深度个性化记忆,有效解决了AI助手"健忘症"——无法记住用户偏好和历史上下文的难题。

同时,方案具备良好的扩展性——小伙伴们可以基于此扩展更多应用场景,如企业内部知识库智能问答、自动化日报周报生成、多平台内容同步发布等,进一步发挥CoPaw在个人效率、团队协作、知识管理等领域的应用价值。感兴趣的小伙伴可以按照文中提供的步骤进行实践,根据实际消息平台需求调整钉钉飞书QQ Discord的接入配置。今天的分享就到这里结束了,我们下一篇文章见。

Read more

使用LLaMA-Factory对GLM-4-9B-Chat进行LoRA微调

使用LLaMA-Factory对GLM-4-9B-Chat进行LoRA微调 在大模型应用日益普及的今天,如何快速、低成本地定制一个符合特定场景需求的语言模型,已经成为开发者和企业关注的核心问题。直接全参数微调动辄数十GB显存消耗,对大多数团队而言并不现实。而像 LoRA(Low-Rank Adaptation) 这样的高效微调技术,配合如 LLaMA-Factory 这类开箱即用的框架,正让“平民化”大模型定制成为可能。 本文将以 GLM-4-9B-Chat 为例,带你从零开始完成一次完整的 LoRA 微调流程——从环境配置、数据清洗到训练部署,最终得到一个可独立运行的专属模型。整个过程无需深入理解底层原理,也能在单卡 A10/A100 上顺利完成。 环境准备:搭建可编辑的开发环境 首先确保你的系统已安装 Python ≥ 3.10 和支持 CUDA 的 PyTorch 版本(推荐 torch==2.1.0+cu118 或更高)

By Ne0inhk
蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

目录 一、本篇背景: 二、蓝耘与通义万相 2.1 概述: 2.1蓝耘简介: 2.2通义万相 2.1 简介: 注册并使用蓝耘元生代智算平台: 完成通义万相 2.1部署并调用:  个人代码调用过程及感受: 环境准备: 代码实现: 保存生成的图像: 三、蓝耘与通义万相 2.1 结合的优势: 3.1强大的计算力支撑: 3.2高效的数据处理与传输: 3.3定制化与优化: 四、蓝耘调用通义万相 2.1 API 的实际代码演示: 4.1环境搭建: 4.2图像生成代码示例: 4.3文本生成代码示例: 五、蓝耘与通义万相 2.1

By Ne0inhk
当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念?

当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念?

当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念? “用awk处理这个文本吧”——最近,不少程序员在使用GitHub Copilot时,都会被这句突如其来的建议“刷屏”。原本只是用来补全代码、生成函数的AI助手,如今却频频跳出代码编辑器的范畴,主动推荐awk、sed、grep这些Linux命令行工具,甚至能生成一套完整的Shell命令流水线,帮你完成数据清洗、日志分析等复杂操作。 这一现象迅速在技术圈引发热议:有人惊叹AI已经具备了“Linux思维”,能像资深运维工程师一样用底层工具高效解决问题;也有人调侃,Copilot怕不是被“老派”程序员的代码喂偏了,动辄就awk,仿佛图形界面在它眼里就是“不够极客”的代名词;更有人担忧,当AI都能熟练运用这些经典Unix工具时,程序员的核心技能会不会被颠覆,我们是不是真的要重新捡起尘封的man手册? 今天,我们就从Copilot的awk执念说起,聊聊AI与Linux底层工具的碰撞,拆解这场“AI Linux思维”热潮背后的真相、价值与争议,顺便解答每个开发者都关心的问题:当AI开始用命令行思考,我们该顺势而为,还是保

By Ne0inhk
OpenCode 踩坑记:GitHub Copilot 按次计费?我的账单为何暴涨 3 倍!

OpenCode 踩坑记:GitHub Copilot 按次计费?我的账单为何暴涨 3 倍!

从发现问题到深度分析,一篇文章搞懂 OpenCode + GitHub Copilot 的正确打开方式 🌟 前言:一个意外的"惊喜" 进入2026年,朋友圈和技术群里都在讨论一个新的AI开发工具 —— OpenCode,号称是 AI 编程助手的"终极形态",支持 GitHub Copilot、Claude、GPT-4 等多种模型,还能自动执行多步任务。 作为一个爱折腾的程序员,我立马下载试用。我有 GitHub Copilot 企业订阅,而且OpenCode还支持,用起来应该不花钱吧? 结果一周后,我收到了公司 IT 部门的"温馨提醒" 📧: “您的 Copilot 使用量是团队平均水平的 3 倍,请注意合理使用…” 什么情况??我明明只是让

By Ne0inhk