本地离线部署AI大模型:OpenClaw + Ollama + Qwen3.5:cloud/Qwen3:0.6b 超详细教程(无需GPU)

本地离线部署AI大模型:OpenClaw + Ollama + Qwen3.5:cloud/Qwen3:0.6b 超详细教程(无需GPU)

前言

随着开源大模型越来越成熟,我们完全可以在自己电脑上本地运行AI,不联网、不上传数据、免费使用,隐私性极强。

今天这篇文章,我会一步步带你完成:Ollama + Qwen3.5:cloud(主力模型)+ Qwen3:0.6b(轻量备选)+ OpenClaw 的本地部署,实现一个属于自己的本地聊天AI,兼顾效果与低配置适配。

一、项目介绍

本项目实现本地离线运行阿里通义千问系列大模型(Qwen3.5:cloud 主力模型 + Qwen3:0.6b 轻量备选模型),全程不需要云端API,不需要高性能显卡,普通电脑就能跑,可根据自身电脑配置选择对应模型。

用到的工具:

    • Ollama:最简单的本地大模型管理工具,一键拉取、运行、管理模型
    • Qwen3.5:cloud:阿里云开源的轻量高性能大语言模型,对话效果强、适配本地部署,作为主力使用
    • Qwen3:0.6b:阿里云开源的超轻量大语言模型,占用内存极低(1GB左右),适合8GB内存低配电脑,作为备选模型
    • OpenClaw:美观好用的本地AI可视化交互界面
    • 特点:免费、离线、隐私安全、低配置可运行

二、环境准备

    • 操作系统:Windows 10 / Windows 11
    • 内存:最低 8GB(推荐 16GB 更流畅)
    • 无需独立显卡,CPU 即可运行
    • 网络:仅在下载模型时需要,运行时可完全断网

三、详细安装步骤

  1. 安装 Ollama

Ollama 是运行模型的核心,安装非常简单。

  1. 打开官网:https://ollama.com/
  2. 点击 Download 下载 Windows 版本
  3. 双击安装,一路下一步
  4. 安装完成后,Ollama 会自动在后台运行

验证是否安装成功:

打开 CMD 或 PowerShell,输入:

ollama --version

出现版本号即成功。

  1. 使用 Ollama 下载并运行模型(Qwen3.5:cloud + Qwen3:0.6b)

我实际下载了两个模型,可根据自身电脑配置选择运行,优先推荐 Qwen3.5:cloud(效果更好),8GB内存低配电脑推荐 Qwen3:0.6b(更流畅)。

2.1 下载并运行 Qwen3.5:cloud(主力模型)

继续在命令行输入以下命令,
第一次运行会自动下载模型,下载完成后出现 >>> 即启动成功,可直接输入问题测试,适配低配电脑,运行流畅无压力。

ollama run qwen3.5:cloud

出现 >>> 表示模型已启动成功。

你可以直接在这里输入问题测试:

你好,介绍一下自己

在这里插入图片描述

模型能正常回答,说明 Qwen3.5:cloud 部署成功。

2.2 下载并运行 Qwen3:0.6b(轻量备选模型)

若电脑内存较低(8GB及以下),运行 Qwen3.5:cloud 卡顿,可下载 Qwen3:0.6b 超轻量模型,命令行输入:

ollama run qwen3:0.6b

出现 >>> 表示模型已启动成功。

你可以直接在这里输入问题测试:
你好,介绍一下自己

在这里插入图片描述

模型能正常回答,说明部署成功一半。

  1. 安装 OpenClaw 可视化界面

OpenClaw 让你不用敲命令,直接像 ChatGPT 一样聊天。

  1. 打开 OpenClaw 发布页:https://github.com/sqzw-x/OpenClaw
  2. 找到最新版本下载 Windows 安装包
  3. 解压或安装后打开软件
  4. 连接 OpenClaw 与本地 Ollama

打开 OpenClaw 后:

  1. 右上角进入设置
  2. 模型选择:根据自身需求选择,主力推荐 qwen3.5:cloud,低配电脑选择 qwen3:0.6b
  3. Ollama 地址保持默认:

http://localhost:11434

  1. 保存设置

回到主界面,即可开始聊天。

四、效果展示

在这里插入图片描述


在这里插入图片描述
在这里插入图片描述
  1. 与AI对话的效果截图
  2. 任务管理器内存占用展示(打开任务管理器,切换到“性能-内存”页面,同步显示AI运行状态)
在这里插入图片描述


在这里插入图片描述

示例说明:

  1. OpenClaw 连接成功界面(截图包含设置页面、模型选择(可分别展示 qwen3.5:cloud 和 qwen3:0.6b 选择界面)、地址配置)
    • 模型启动速度:约 3~10 秒
    • 回答速度:流畅,可日常使用

五、常见问题与解决方法(非常重要)

    • 内存占用:Qwen3.5:cloud 约 2GB~4GB,Qwen3:0.6b 约 1GB~1.5GB
    • 模型启动速度:Qwen3.5:cloud 约 3~10 秒,Qwen3:0.6b 约 1~3 秒
    • 回答速度:均流畅可日常使用,Qwen3:0.6b 适配低配电脑,卡顿更少
  1. 模型下载特别慢

解决方法:

    • 先暂停下载重新开始,进度不会变
    • 或等待半夜下载(网络高峰期避开)
  1. OpenClaw 连接失败 / 连不上 127.0.0.1:11434

解决方法:

    • 确保 Ollama 正在后台运行(任务栏右下角查看 Ollama 图标)
    • 重启 Ollama:任务栏右键 Ollama → Restart
    • 检查地址是否为:http://localhost:11434(切勿多写/少写字符)
  1. 电脑卡顿、内存不足

解决方法:

    • 关闭其他软件(尤其是浏览器、视频软件、后台下载工具)
    • 关闭其他软件(尤其是浏览器、视频软件、后台下载工具),释放内存

解决方法:

切换/运行 Qwen3:0.6b 命令:

    • 切换至超轻量模型:若运行 Qwen3.5:cloud 卡顿,可切换到 Qwen3:0.6b 模型,占用内存极低,适配8GB及以下低配电脑

ollama run qwen3:0.6b

命令:

    • 使用更小参数模型(若 qwen3.5:cloud 卡顿):qwen3.5:4b
  1. OpenClaw 不显示模型(qwen3.5:cloud 或 qwen3:0.6b)

ollama run qwen3.5:4b

解决方法:

    • 重启 OpenClaw 软件,重新加载模型列表

解决方法:

    • 重新进入 OpenClaw 设置,根据自身需求选择 qwen3.5:cloud 或 qwen3:0.6b 模型并保存
    • 重启 OpenClaw 软件
    • 确认 Ollama 已成功拉取模型(命令行输入 ollama list 可查看已拉取的 qwen3.5:cloud 和 qwen3:0.6b 模型)
    • 确认 Ollama 已成功拉取模型(命令行输入 ollama list 可查看已拉取模型)

六、项目总结

通过 Ollama + Qwen3.5:cloud + OpenClaw,我们轻松实现了:

通过 Ollama + Qwen3.5:cloud(主力)+ Qwen3:0.6b(备选)+ OpenClaw,我们轻松实现了:

    • 本地离线运行大模型
    • 完全免费、无流量限制
    • 可视化界面,使用体验接近在线AI
    • 数据不上传,隐私百分百安全

适合人群:

    • 想学习AI本地部署的新手
    • 想学习AI本地部署的新手
    • 注重隐私、不想数据上传云端
    • 学生、开发者、日常办公使用;8GB内存低配电脑也能轻松适配(选择 Qwen3:0.6b 模型)
    • 注重隐私、不想数据上传云端
    • 学生、开发者、日常办公使用

Read more

【AI大模型前沿】昆仑万维开源Skywork-R1V3:38B多模态推理模型,高考数学142分刷新开源SOTA

【AI大模型前沿】昆仑万维开源Skywork-R1V3:38B多模态推理模型,高考数学142分刷新开源SOTA

系列篇章💥 No.文章1【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术2【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流3【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破4【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源5【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型6【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题7【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破8【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元9【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型10【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合11【AI大模型前沿】Qwen2.5-Omni:

【程序员副业指南】KwaiKAT AI制作小红薯[特殊字符]卡片MCP

【程序员副业指南】KwaiKAT AI制作小红薯[特殊字符]卡片MCP

【程序员副业指南】KwaiKAT AI制作小红薯卡片MCP 【程序员副业指南】KwaiKAT AI制作小红薯📕卡片MCP 背景 每个程序员都熟悉计算机,是最适合写技术博客以及做分享的人。最近发现了一个Markdown转知识卡片,值得注意的是,可以利用这个快速制作小红薯📕卡片,但是有点小贵,对于我这样的白嫖党,那肯定是负担不起的,于是决定利用KAT-Coder-Pro V1复刻一个小红薯📕卡片MCP。 效果展示 本项目已开源:https://github.com/lfrbmw/Little-Red-Book-Card-MCP 有朋友问这个有什么用,最近来看效果,你的到一个可以直接发的小红📕卡片,示例如下,直接输出一张可发布小红书的笔记,还提供多个样式。 相关介绍 为什么选择 KAT-Coder-Pro V1? 🔥 高性能,高性价比 * SWE-Bench Verified 解决率达 73.4%,媲美全球顶尖闭源模型 * 256K 超长上下文,轻松处理项目级代码与复杂任务 * 支持

Pytorch和Tensorflow两大架构如何安装?想在自己的电脑上跑神经网络?如何找到部署自己电脑版本的神经网络工具?人工智能专业的学生集合!!

人工智能研究方向的科研小白,天崩开局?手把手教搭建神经网络训练工具准备 第一章 前言 1.1 研究背景 在当今科技迅猛发展的时代浪潮中,人工智能无疑已成为推动各领域变革与创新的核心驱动力。而神经网络,作为人工智能领域的基石与先锋,正以其独特的魅力与强大的效能,重塑着我们对世界的认知与交互方式。 近年来,生成式 AI 的爆发式增长成为科技领域最耀眼的现象之一。以Deep Seek为代表的大型语言模型,凭借其强大的自然语言处理能力,实现了与人类流畅、智能的对话交互,从文本创作、智能客服到知识问答,广泛应用于各个行业,为人们的工作与生活带来了前所未有的便利。图像生成领域,StableDiffusion 等模型能够根据简单的文本描述,创作出令人惊叹的高质量图像,激发了艺术创作的无限可能。这些生成式 AI 的卓越表现,背后离不开神经网络的有力支撑。神经网络通过对海量数据的深度挖掘与学习,掌握了语言、图像等信息的内在模式与规律,从而实现了精准的生成与创造。 1.2 研究意义 在当下,全国各大高校对计算机专业展现出了极高的热情,招生规模不断扩张,新的专业方向与课程设置也如雨后春笋般

用 AI 设计力打造专业 UI_UX:在 Trea、Qoder 等 AI IDE 中集成 ui-ux-pro-max-skill

用 AI 设计力打造专业 UI_UX:在 Trea、Qoder 等 AI IDE 中集成 ui-ux-pro-max-skill

在 AI 编程工具爆发的 2025–2026 年,开发者不再满足于“能跑就行”的界面——我们渴望一键生成媲美 Figma 原型的专业 UI。GitHub 上的开源项目 ui-ux-pro-max-skill 正是为此而生:它将 57 种设计风格、95 套行业配色、56 组字体搭配和 98 条 UX 准则打包成一个结构化知识库,让任何支持上下文引用的 AI 编码助手都能输出高质量前端代码。 本文将手把手教你如何在 Trea 和 Qoder 这类国产主流 AI IDE 中高效使用该项目——即使它们尚未被官方原生支持。 🌟 项目核心能力 ui-ux-pro-max-skill 不是一个普通插件,而是一个AI 可读的设计系统数据库,包含: * 57 种 UI 风格: