Qwen3.5 与 OpenClaw 本地部署实战
前言
AI Agent(智能体)不仅是聊天工具,而是具备操作能力、视觉理解和规划能力的数字员工。本文将介绍如何使用 Qwen3.5 原生多模态模型结合 OpenClaw 框架,在本地环境快速搭建 AI Agent。
一、什么是 AI Agent
传统大模型主要进行文本生成,而 AI Agent 能够自主打开浏览器、调用计算器或执行自动回复等操作。其核心突破在于原生多模态和工具调用(Tool Use)的成熟。
二、Qwen3.5 特性
Qwen3.5 系列采用原生多模态架构,从训练阶段融合文本、图像和音频数据,能准确理解图片中的数字关系和代码缩进含义。它支持混合思考模式:
- 开启时先进行内部推理再输出答案,适合复杂任务;
- 关闭时直接响应,适合简单问答。 此外,其显存占用优化显著,支持在消费级显卡上运行。
三、OpenClaw 框架
OpenClaw 是一个开源 AI Agent 框架,旨在解耦大模型的意图理解与外部工具的执行。通过 Skills(技能)机制,可安装如网页搜索、表单自动化、文件处理等插件。支持多模型路由,可根据任务类型分配不同模型以优化成本。
四、实战:搭建 AI 助手
4.1 环境准备
根据硬件配置选择方案:
路线 A:本地 Ollama 部署
适用于 N 卡用户。
- 安装 Ollama Windows 版。
- 拉取 Qwen3.5 模型并配置上下文窗口。
cd C:\Users\<你的用户名>
"@ FROM qwen3.5:7b PARAMETER num_ctx 32768 @" | Out-File -Encoding ascii Modelfile
ollama create qwen3.5:7b-32k -f Modelfile
路线 B:阿里云百炼云端
适用于 A 卡/集显用户。
- 开通阿里云百炼 Coding Plan。
- 获取 API Key,选择 qwen3.5-plus 模型。
4.2 安装 OpenClaw
使用 npm 全局安装:
npm install -g openclaw
openclaw --version
或使用 Docker:
docker run -d -p 18789:18789 --name openclaw openclaw/openclaw:v2026.2.21
4.3 配置大脑连接
运行初始化向导连接 Qwen3.5:
openclaw onboard
按提示选择模型提供商(本地填 Custom Provider,云端选 Aliyun Bailian),填写 API 地址及模型 ID。若遇上下文窗口错误,需修改配置文件中的 contextWindow 为 32768。
4.4 安装技能
通过 ClawHub CLI 安装必备技能:
npx clawhub@latest install-cli
npx clawhub@latest install desearch-web-search ai-web-automation file-processing
npx clawhub@latest list --installed
在 Web 控制台查看技能状态并测试指令。
五、进阶玩法
5.1 智能报销助手
利用多模态识别发票信息,配合 web-form-automation 技能自动填写 OA 系统。
5.2 代码审查机器人
接收报错截图,结合 github-code-review 技能拉取仓库记录并返回修复建议。
5.3 多模型协作流水线
配置模型分流策略,写代码使用高性能模型,查资料使用轻量模型。


