谷歌封杀也挡不住!OpenClaw+Qwen3.5,开源AI彻底疯了

谷歌封杀也挡不住!OpenClaw+Qwen3.5,开源AI彻底疯了

文章目录

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

前言

一只"小龙虾"掀起的开源风暴

2026 年开年,AI 圈被一只"小龙虾"搅得天翻地覆。

这只"小龙虾"最初叫 Clawdbot,是个开源的个人 AI 助手项目。创始人 Peter Steinberger 可能没想到,自己业余搞的小工具会在几天内冲到 GitHub 热榜第一,Star 数疯狂飙升到 7 万以上。更没想到的是,Anthropic 的一纸律师函直接砸了过来——理由是"Clawd"和"Claude"读音太像,涉嫌商标侵权。

于是,短短 72 小时内,项目经历了 Clawdbot → Moltbot → OpenClaw 的两次改名风波。Peter 在 X 上自嘲:“Same lobster soul, new shell”(同样的龙虾灵魂,换了一身新壳)。这戏剧性的一幕,反而让 OpenClaw 的热度更加失控,Star 数很快突破 10 万大关。

为什么一只"小龙虾"能让全球开发者如此疯狂?答案很简单:它代表了 AI 从"聊天工具"向"数字员工"的质变。而今天,当我们把 OpenClaw 与阿里刚开源的 Qwen3.5 系列模型结合,这种质变正在产生核聚变般的能量。

OpenClaw 到底是什么?你的 24 小时私人助理

想象一下,你有个私人助理,不用发工资,24 小时待命,能直接操作你的电脑,还能通过微信、飞书、Telegram 随时响应你的指令。这就是 OpenClaw 的核心价值。

它不是一个简单的聊天机器人,而是一个 AI Agent 网关。你可以把它理解成一座桥梁,连接着大语言模型和你的数字生活:

  • 多平台无缝接入:不需要下载新 APP,直接在常用的聊天软件里 @它就行。支持 WhatsApp、Telegram、Slack、Discord、飞书、钉钉等 10 余种平台。想象一下,你在地铁上用手机发条消息,家里的电脑就开始自动整理桌面文件、生成报表、甚至修复代码 Bug。
  • 持久化记忆:传统的 ChatGPT 对话一关闭就失忆,OpenClaw 却能记住你的习惯、偏好和工作流程。它会在本地存储记忆,越用越懂你。
  • 主动执行能力:不只是被动问答,它能根据日历事件主动提醒你,定时生成早报,甚至监控服务器状态并在异常时发送警报。这就像《钢铁侠》里的贾维斯,真正做到了"自动运行"。
  • 技能系统(Skills):通过安装不同的 Skill,你可以给 AI 添加各种超能力——查天气、发邮件、操作浏览器、读写本地文件、控制智能家居。社区已经贡献了 500+ 个 Skill,从自动化的 PR 代码审查到加密货币监控应有尽有。

Qwen3.5:阿里开源的"性能怪兽"

如果说 OpenClaw 是骨架,那 Qwen3.5 就是它的大脑。2026 年 2 月,阿里通义千问团队发布的 Qwen3.5 系列,堪称开源模型界的"降维打击"。

  • 混合架构带来的性能跃升:Qwen3.5-397B-A17B 采用混合专家(MoE)架构,总参数量 3970 亿,但每次推理只激活 170 亿参数。这就像是一个拥有 3970 名专家的公司,遇到问题只派最合适的 170 人处理,既聪明又省电。
  • 小模型逆袭大模型:更令人震撼的是 Qwen3.5-35B-A3B,仅有 35 亿激活参数,性能却全面超越了 7 个月前发布的 2350 亿参数旗舰模型 Qwen3-235B-A22B。这证明了模型的智能不在于参数堆砌,而在于架构精巧。
  • 原生多模态:不同于传统文本模型,Qwen3.5 在视觉和文本混合 Token 上预训练,天生就懂看图说话、视频理解。你可以扔给它一张截图,让它直接提取文字、分析图表、甚至根据 UI 设计图生成前端代码。
  • 消费级显卡可部署:Qwen3.5-27B 作为 Dense 模型(非 MoE),能在单张 GPU 上流畅运行。这意味着你不需要价值十几万的 A100 集群,几千块的 RTX 4090 就能在家部署一个顶级 AI 大脑。

王炸组合:当 OpenClaw 遇上 Qwen3.5

把 OpenClaw 和 Qwen3.5 结合在一起,会发生什么样的化学反应?答案是:一个完全自主可控、数据隐私绝对安全、且智商超群的本地 AI 助手。

场景一:零代码自动化办公

早上 9 点,你刚到公司,OpenClaw 已经在飞书上给你发了今日待办:“检测到昨晚客户发来的邮件,已自动分类;GitHub 上有 3 个 PR 需要你 Review,我已初步筛选出 1 个可能存在内存泄漏问题;今日会议已整理进日历。”

这一切的背后,是 Qwen3.5-122B-A10B 在理解邮件内容、分析代码差异、识别会议意图,而 OpenClaw 负责调用邮件客户端、GitHub API、日历接口完成实际操作。

场景二:私有化知识库问答

把公司内部的 10 万份文档喂给 OpenClaw,它利用 Qwen3.5 的长上下文能力(支持 100 万 Token),能在几秒内从海量文档中找到答案,并生成带引用来源的报告。所有数据都跑在本地服务器,绝不会上传到第三方云端,彻底解决隐私焦虑。

场景三:7×24 小时智能运维

配置好监控 Skill 后,OpenClaw 会每隔 5 分钟检查服务器状态。一旦检测到异常日志,立即调用 Qwen3.5 分析错误原因,尝试自动修复,并在修复失败时通过 Telegram 通知值班工程师。整个过程无需人工干预,真正实现了"自愈式运维"。

手把手部署:从零搭建你的 AI 助手

说千道万不如动手一干。下面这套方案基于 Windows + WSL2 环境,完全使用开源工具,让你在一小时内跑通 OpenClaw + Qwen3.5。

第一步:准备 Qwen3.5 模型

最经济的选择是部署 Qwen3.5-35B-A3B,它在消费级显卡上就能跑得飞起。我们使用 vLLM 框架部署,这是目前吞吐量最高的推理方案。

创建 Python 环境:

conda create -n openclaw python=3.12-y conda activate openclaw 

安装 vLLM(支持 Qwen3.5 的最新版本):

pip install vllm --pre --extra-index-url https://wheels.vllm.ai/nightly 

从魔搭社区下载模型(国内速度更快):

pip install modelscope modelscope download Qwen/Qwen3.5-35B-A3B --local_dir ./qwen35 

创建配置文件 config.yaml

model: ./qwen35 served_model_name: qwen3.5-local host: 0.0.0.0 port:8000tensor-parallel-size:1gpu-memory-utilization:0.9max-model-len:32768enable-auto-tool-choice:truetool-call-parser: qwen 

启动服务:

vllm serve --config config.yaml 

看到 Uvicorn running on http://0.0.0.0:8000 就说明模型已就绪。

第二步:安装 OpenClaw

OpenClaw 基于 Node.js 开发,需要先安装 Node.js 22+。

安装 OpenClaw CLI:

npminstall-g openclaw@latest 

初始化配置(会引导你设置模型连接):

openclaw onboard --install-daemon 

在配置环节,选择"Custom OpenAI-compatible API",填入:

  • Base URL: http://localhost:8000/v1
  • API Key: sk-dummy(本地部署无需真实 Key)
  • Model: qwen3.5-local

第三步:接入常用通讯工具

以飞书为例,社区已经贡献了现成的插件:

安装飞书插件:

openclaw plugins install @m1heng-clawd/feishu 

在飞书开放平台创建自建应用,获取 App ID 和 App Secret,然后配置到 OpenClaw 中。搞定后,你就能在飞书里 @机器人发送指令,它会在你的电脑上执行并返回结果。

第四步:安装实用 Skills

# 安装文件管理 Skill clawhub install filesystem # 安装浏览器自动化 Skill clawhub install browser # 安装代码审查 Skill(适合开发者) clawhub install code-review 

避坑指南:安全防护与成本控制

虽然 OpenClaw + Qwen3.5 组合很强大,但有几个坑必须避开。

  • 权限控制是第一要务:OpenClaw 默认需要较高的系统权限才能操作文件和浏览器。建议在 Docker 容器中运行,或者至少使用非特权用户启动,避免它"手滑"删掉重要文件。Palo Alto Networks 的安全研究指出,这类 Agent 系统如果配置不当,确实存在被恶意利用的风险。
  • API 费用管理:如果你选择调用云端 Qwen3.5 API 而非本地部署,注意 Agent 会在后台进行大量工具调用,Token 消耗速度远超普通聊天。建议设置预算上限,或优先使用阿里云百炼的 Qwen3.5-Flash 版本,每百万 Token 输入仅需 0.2 元。
  • 模型选择的权衡:Qwen3.5-397B-A17B 虽然最强,但需要多卡并行才能跑得动。个人用户建议用 Qwen3.5-35B-A3B,智商在线且单卡可跑;如果只有消费级显卡(如 RTX 4070),选择 Qwen3.5-27B Dense 版本更合适。
  • 谨防假冒项目:由于 OpenClaw 多次改名(Clawdbot→Moltbot→OpenClaw),GitHub 上出现了大量抢注的假冒仓库,甚至有用旧名字发行加密货币的骗局。务必认准官方仓库 github.com/openclaw/openclaw,任何宣称发行代币的行为都是诈骗。

写在最后:AI 民主化的里程碑

OpenClaw 的爆火和 Qwen3.5 的开源,标志着 AI 正在从"巨头垄断"走向"全民普及"。过去,你要用 Claude Opus 或 GPT-4,必须按月交订阅费,数据还要上传到别人的服务器;今天,你可以用零代码成本,在自家电脑上部署一个智商不输顶级商业模型的 AI 助手,而且数据完全私有。

Peter Steinberger 在收到 Anthropic 律师函时一定很无奈,但开源社区的力量让这只"小龙虾"越变越强。国内云厂商也迅速跟进——阿里云、腾讯云都推出了 OpenClaw 的一键部署镜像,连 Mac Mini 都一度被抢货到断供。

这种趋势不可阻挡。当谷歌、Anthropic 等巨头试图用封闭生态守住护城河时,OpenClaw 和 Qwen3.5 代表的开源力量正在从底层瓦解围墙。正如 Peter 所说:“同样的龙虾灵魂,换一身新壳继续战斗。”

2026 年,或许将成为个人 AI 助手的元年。而你,完全可以成为这场变革的早期玩家——不需要昂贵的硬件,不需要深厚的 AI 背景,只需要一台电脑、一颗好奇心,和这篇文章的指引。

让我们一起,把 AI 的主动权拿回自己手中。

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

在这里插入图片描述

Read more

OpenAI发布GPT-5.3 Instant:幻觉率最高降低26.8%,2026全球AI模型排行榜

OpenAI发布GPT-5.3 Instant:幻觉率最高降低26.8%,2026全球AI模型排行榜

🔥 个人主页:杨利杰YJlio❄️ 个人专栏:《Sysinternals实战教程》《Windows PowerShell 实战》《WINDOWS教程》《IOS教程》《微信助手》《锤子助手》《Python》《Kali Linux》《那些年未解决的Windows疑难杂症》🌟 让复杂的事情更简单,让重复的工作自动化 OpenAI发布GPT-5.3 Instant:幻觉率最高降低26.8%,2026全球AI模型排行榜 * 1 GPT-5.3 Instant 发布 * 2 本次升级三大核心能力 * 2.1 降低 AI 幻觉 * 2.2 减少不必要拒答 * 2.3 网络搜索能力升级 * 3 GPT-5.3 Instant 技术架构 * 4 GPT-5.3 vs

By Ne0inhk

【GitHub项目推荐--Moyin Creator(魔因漫创):AI影视生产级全流程创作工具】⭐⭐⭐

魔因漫创 是一款面向 AI 影视创作者的生产级工具。五大板块环环相扣,覆盖从剧本到成片的完整创作链路: 📝 剧本 → 🎭 角色 → 🌄 场景 → 🎬 导演 → ⭐ S级(Seedance 2.0) 每一步的产出自动流入下一步,无需手动搅合。支持多种主流 AI 大模型,适合短剧、动漫番剧、预告片等场景的批量化生产。 基础设置教程:https://www.bilibili.com/video/BV1FsZDBHExJ/?vd_source=802462c0708e775ce81f95b2e486f175 功能特性 ⭐ S级板块 — Seedance 2.0 多模态创作 SkyReels-V4 多模态创作 * 多镜头合并叙事视频生成:将多个分镜分组合并生成连贯叙事视频 * 支持 @Image / @Video / @Audio 多模态引用(角色参考图、场景图、首帧图自动收集)

By Ne0inhk
(第四篇)Spring AI 核心技术攻坚:多轮对话与记忆机制,打造有上下文的 AI

(第四篇)Spring AI 核心技术攻坚:多轮对话与记忆机制,打造有上下文的 AI

摘要         在大模型应用开发中,“上下文丢失” 是多轮对话场景的核心痛点,直接导致 AI 回复割裂、用户体验拉胯。本文基于 Spring AI 生态,从对话记忆的本质出发,深度拆解短期 / 长期 / 摘要三类记忆的设计逻辑,对比 Redis 缓存与数据库持久化的技术选型方案,详解上下文压缩的关键技巧,并通过完整实战案例,手把手教你构建支持 100 轮对话的高可用智能客服。全程贯穿 “从内存存储到分布式记忆” 的进阶思路,既有底层原理剖析,又有可直接落地的代码实现,帮你彻底掌握 Spring AI 记忆机制的核心玩法。 引言         用过 Spring AI 开发对话应用的同学都懂:默认情况下 LLM 是 “鱼的记忆”—— 每次请求都是独立会话,无法记住上一轮的对话内容。比如智能客服场景中,用户先说明 “我要查询订单物流”,再提供 “订单号 12345”

By Ne0inhk
当人人都会用AI,你靠什么脱颖而出?

当人人都会用AI,你靠什么脱颖而出?

文章目录 * 一、引言:AI时代,你真的准备好了吗? * 二、脉向AI:连接AI与普通人的桥梁 * 2.1 什么是脉向AI? * 2.2 脉向AI的合作生态 * 2.3 为什么你需要关注脉向AI? * 三、本期重磅:《小Ni会客厅×AI熊厂长》深度对话 * 3.1 访谈背景 * 3.2 核心观点一:商业认知决定变现能力 * 3.3 核心观点二:个人标签决定商业价值 * 3.4 核心观点三:爆款策略决定起步速度 * 3.5 核心观点四:产品思维决定变现上限 * 四、从认知到行动:如何真正用AI赚到钱? * 4.1 建立正确的商业认知 * 4.2 找到你的70分领域

By Ne0inhk