组建龙虾团队——OpenClaw多机器人构建

组建龙虾团队——OpenClaw多机器人构建

成功搭建了OpenClaw,也成功建立的自己的每日服务,这时候发现,似乎不太敢在当前的机器人中让他做别的事情,生怕会话太多会让他出现遗忘。(尽管我们配置了QMD记忆增强,但毋庸置疑任何技术都是有上限的)。

换做同样的情况,比如在DeepSeek或者豆包之类的对话窗口,我们会习惯性地新建一个对话。那么我们是否可以新建一个机器人,或者多个机器人,让他们各司其职,各尽所能,形成一个相互配合的团队呢~开干吧,没什么不可能的!!

🦞新建一个机器人

来到飞书开发者后台,新创建一个应用,在这里我们以短视频剪辑脚本应用为例。

创建之后,由于我们的openclaw绑定的是之前的飞书渠道,并没有链接到这个应用的APP ID,所以暂时不做其他操作,只需要记录一下他的APP ID和APP Secret。

🦞配置OpenClaw

如果还是按照claw的命令行安装,每一步都有些让人担心害怕,毕竟我们先前已经配置过一次了,接下来的操作,需要小心是否会把以前的配置给覆盖掉。

为了避免这样的不确定性,我们直接去操作他的配置文件

在WSL2终端中进入openclaw目录

cd .openclaw/ 

别着急,首先我们先备份一份配置文件,避免一次失误导致全局崩盘

cp openclaw.json openclaw.json.backup

以任何你喜欢的方式打开openclaw.json,在这里以nano为例。

nano openclaw.json

找到关于Channels的版块

在这里,你的json构造和图中的构造多半是不一样的,因为再在此之前我已经创建了两个机器人,一个名为“claw_deepseek”,一个名为“咨询获取”(已经无所畏惧了直接上中文吧)

接下来我将完整的配置粘贴到下方,大家只需要根据自己应用的APP ID 和Secret进行填写就好。

"channels": { "feishu": { "enabled": true, "domain": "feishu", "groupPolicy": "allowlist", "accounts": { "main": { "appId": "【cli_ID1】", "appSecret": "【Secret1】", "botname": "【机器人名1】", }, "feishu-work":{ "appId": "【cli_ID2】", "appSecret": "【Secret2】", "botName": "【机器人名2】", } }, "dmPolicy": "pairing" } }, "bindings": [ { "agentId": "main", "match": { "channel": "feishu", "accountId": "main" } }, { "agentId": "work", "match": { "channel": "feishu", "accountId": "feishu-work【这个可以自己命名一下】" } } ],

保存之后回到终端,执行以下最简单的检查命令

openclaw-cn gateway

如果你的json有问题的话,就会出现报错,像这样

按照指引去看看哪里写错了。

如果没有问题的话,就会像这样,告诉我们网关已经在跑了。

🦞启动新员工

回到飞书后台,开启订阅方式为长连接

如果没有去配置openclaw就试图开启长连接的话,之类会提示【没有会话对象】之类的

接下来就比较熟悉, 订阅一个消息接收的事件,im.message.receive_v1

在这里我加了一个消息已读,没什么关系,后续我们都可以修改。根据引导开启机器人功能就好。

下一步就是要给他授予权限,除了下面批量导入的权限外,也可以把关于文档的权限尽可能给它开通,避免生成文档出现问题。

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"] } }

接下来就让我们发布一个版本,正式上线吧~

发布成功后,我们去飞书的消息栏看一下,【打开应用】

我们向新建的应用发送一句“你好”,有时候飞书回复会很慢,这个时候我们可以去claw的后台去看,访问你本机地址的18789端口(默认)。根据消息在命令行执行配对命令

当再次打招呼时,就会发现它可以正常的跟我们对话了。

🦞做个测试

首先我对他的身份进行了定义,他是专门用于输出短视频剪辑脚本的,我将另一个机器人生成的每日资讯作为输入,让其生成脚本文件,结果是比较惊讶的。

其不仅建立了独立的工作空间,而且创建了完整版和快速版两种,十分高效。

🦞总结

到现在为止我们成功创建了多个龙虾员工,下一步我们将探索如何将他们的工作关联起来,形成一个整体~加油~

Read more

WhisperLiveKit终极指南:从零搭建企业级实时语音识别系统

还在为语音转文字延迟太高而抓狂?🤯 传统的Whisper模型在处理实时流数据时表现不佳,而WhisperLiveKit正是为解决这一痛点而生。这款开源工具集成了Simul-Whisper、Streaming Sortformer等前沿技术,让你在本地环境中实现毫秒级延迟的语音识别。 【免费下载链接】WhisperLiveKitReal-time, Fully Local Speech-to-Text and Speaker Diarization. FastAPI Server & Web Interface 项目地址: https://gitcode.com/GitHub_Trending/wh/WhisperLiveKit 核心关键词:实时语音识别、说话人分离、多语言翻译、本地化部署 三大应用场景:立即上手的实用方案 场景一:在线会议实时记录 想象一下,团队会议不再需要专人记录,系统自动识别不同与会人员并生成带时间戳的会议纪要。通过Chrome扩展捕获会议音频,实现完全自动化的会议记录流程。 场景二:多媒体内容转录 YouTube视频、播客节目、在线课程——浏览器

By Ne0inhk

DeepSeek-R1-Distill-Llama-8B效果实测:CodeForces评分1205模型生成AC代码对比

DeepSeek-R1-Distill-Llama-8B效果实测:CodeForces评分1205模型生成AC代码对比 1. 这个模型到底能写对几道编程题? 你有没有试过让AI帮你解算法题?不是那种“大概意思对就行”的伪代码,而是真正在CodeForces上能提交、能通过所有测试用例的AC代码?这次我们把目光投向一个刚开源不久、但已经在多个推理榜单上崭露头角的轻量级选手——DeepSeek-R1-Distill-Llama-8B。 它不是参数动辄几十B的大块头,而是一个仅80亿参数的蒸馏模型,却在CodeForces评测中拿到了1205分。这个分数意味着什么?它比GPT-4o(759分)高出近60%,比Claude-3.5-Sonnet(717分)翻了快一倍,甚至超过了QwQ-32B(1316分)的九成水平。更关键的是,它跑得快、占内存少、部署简单——用Ollama一条命令就能拉起来,本地笔记本也能稳稳扛住。 这篇文章不讲大道理,不堆参数,就做一件事:真实还原它解题的过程。我们选了5道CodeForces典型题(涵盖模拟、贪心、二分、图论和动态规划),从读题、思考、写代码,到

By Ne0inhk

AI绘画新选择:Meixiong Niannian画图引擎实测体验

AI绘画新选择:Meixiong Niannian画图引擎实测体验 最近在本地部署AI绘画工具时,试了几个主流方案——有些对显存要求太高,3090跑SDXL都吃力;有些WebUI操作繁琐,调参像在写配置文件;还有些生成一张图要等半分钟,灵感早凉了。直到遇到这个叫「Meixiong Niannian」的画图引擎,我一口气跑了二十多组提示词,从写实人像到水墨山水,从赛博朋克街景到手绘风小猫,几乎张张可用。它不靠堆参数炫技,而是用一套轻巧、顺手、靠谱的工程设计,把文生图这件事真正拉回“个人能用”的尺度。 这不是又一个套壳UI,也不是简单换皮的LoRA合集。它背后是Z-Image-Turbo底座 + Niannian Turbo LoRA的定向组合,专为24G及以下显存优化,全程可视化操作,连负面词怎么写、CFG值设多少、为什么25步最平衡,都藏在交互逻辑里,不用查文档也能摸出门道。下面我就以一个真实使用者的身份,不讲原理、不列参数表,只说:它能画什么、怎么画得稳、哪些地方让人愿意天天打开。 1. 为什么说它是“真·轻量派”

By Ne0inhk
2026年各大高校AIGC检测政策汇总(持续更新)

2026年各大高校AIGC检测政策汇总(持续更新)

2026年各大高校AIGC检测政策汇总(持续更新) 2026年毕业季正式来临,AIGC检测已经不再是"可能会查",而是"一定会查"。从去年下半年到现在,全国高校密集出台了一系列针对论文AI生成内容的检测政策。本文将为大家做一个尽可能全面的汇总,方便同学们快速了解自己学校的要求,提前做好准备。 本文持续更新,建议收藏。 2026年高校AIGC检测的整体趋势 在详细列出各高校政策之前,先给大家概括一下今年的整体形势: 三大核心变化 1. 检测范围全覆盖:不再只是抽检,而是全部论文必查AIGC 2. 检测标准趋严:AI率阈值从去年普遍的30%收紧到20%甚至10% 3. 处罚力度加大:从"修改后重新提交"升级到"延期答辩"甚至"取消答辩资格" 主要检测平台分布 * 知网AIGC检测系统:覆盖约60%的985/211高校

By Ne0inhk