前言
随着开源大模型越来越成熟,我们完全可以在自己电脑上本地运行AI,不联网、不上传数据、免费使用,隐私性极强。
今天这篇文章,我会一步步带你完成:Ollama + Qwen3.5:cloud(主力模型)+ Qwen3:0.6b(轻量备选)+ OpenClaw 的本地部署,实现一个属于自己的本地聊天AI,兼顾效果与低配置适配。
一、项目介绍
本项目实现本地离线运行阿里通义千问系列大模型(Qwen3.5:cloud 主力模型 + Qwen3:0.6b 轻量备选模型),全程不需要云端API,不需要高性能显卡,普通电脑就能跑,可根据自身电脑配置选择对应模型。
用到的工具:
-
Ollama:最简单的本地大模型管理工具,一键拉取、运行、管理模型
-
Qwen3.5:cloud:阿里云开源的轻量高性能大语言模型,对话效果强、适配本地部署,作为主力使用
-
Qwen3:0.6b:阿里云开源的超轻量大语言模型,占用内存极低(1GB左右),适合8GB内存低配电脑,作为备选模型
-
OpenClaw:美观好用的本地AI可视化交互界面
-
特点:免费、离线、隐私安全、低配置可运行
二、环境准备
-
操作系统:Windows 10 / Windows 11
-
内存:最低 8GB(推荐 16GB 更流畅)
-
无需独立显卡,CPU 即可运行
-
网络:仅在下载模型时需要,运行时可完全断网
三、详细安装步骤
- 安装 Ollama
Ollama 是运行模型的核心,安装非常简单。
- 打开官网:https://ollama.com/
- 点击 Download 下载 Windows 版本
- 双击安装,一路下一步
- 安装完成后,Ollama 会自动在后台运行
验证是否安装成功:
打开 CMD 或 PowerShell,输入:
ollama --version
出现版本号即成功。
- 使用 Ollama 下载并运行模型(Qwen3.5:cloud + Qwen3:0.6b)
我实际下载了两个模型,可根据自身电脑配置选择运行,优先推荐 Qwen3.5:cloud(效果更好),8GB内存低配电脑推荐 Qwen3:0.6b(更流畅)。
2.1 下载并运行 Qwen3.5:cloud(主力模型)
继续在命令行输入以下命令,
第一次运行会自动下载模型,下载完成后出现 >>> 即启动成功,可直接输入问题测试,适配低配电脑,运行流畅无压力。
ollama run qwen3.5:cloud
出现 >>> 表示模型已启动成功。
你可以直接在这里输入问题测试:
你好,介绍一下自己

模型能正常回答,说明 Qwen3.5:cloud 部署成功。
2.2 下载并运行 Qwen3:0.6b(轻量备选模型)
若电脑内存较低(8GB及以下),运行 Qwen3.5:cloud 卡顿,可下载 Qwen3:0.6b 超轻量模型,命令行输入:
ollama run qwen3:0.6b
出现 >>> 表示模型已启动成功。
你可以直接在这里输入问题测试:
你好,介绍一下自己








