本地AI自由!OpenClaw + Ollama 全离线部署实战手册 (Windows版)

厌倦了云端AI的Token计费焦虑和隐私泄露风险?想拥有一位完全听命于你的本地AI助手?本文将手把手教你,无需深厚编程基础,只需跟随步骤执行命令,即可在个人电脑上搭建属于你的全功能AI Agent。

核心优势零费用:无需API Key,彻底告别按量付费。强隐私:数据全程本地处理,断网也能流畅使用。高自由:随心切换Qwen、GLM等顶尖开源模型。

️ 第一阶段:环境准备(地基搭建)

在开始之前,请以管理员身份打开 PowerShell (按下 Win + X 选择)。这是我们接下来的操作中心。

1. 安装 Node.js (v18+)

Node.js 是 OpenClaw 的运行环境,安装它时 npm 会自动就位。

  1. 访问 Node.js 官网,下载 LTS (长期支持) 版本的 Windows 安装包 (.msi)。
  2. 双击运行安装程序。关键步骤:在自定义安装界面,务必勾选 Add to PATH
  3. 一路 Next 完成安装。

验证:在 PowerShell 中输入以下命令,若显示版本号(如 v18.x.x),则成功。

node-vnpm-v

2. 安装 Git

Git 用于管理代码和扩展技能,是生态的重要组成部分。

  1. 访问 Git 官网 下载 Windows 版安装包。
  2. 运行安装程序,建议保持所有默认选项,特别是确保将 Git 添加到系统 PATH 中。

验证:在 PowerShell 中输入命令,若显示版本信息则成功。

git--version

️ 第二阶段:部署 Ollama (本地模型引擎)

Ollama 是你的本地模型管家,负责承载AI的“大脑”。

1. 安装与配置

  1. 访问 Ollama 官网 下载 Windows 版本并安装。
  2. 环境变量配置 (推荐):为了让模型响应更快,避免重复加载,建议设置模型常驻内存。
    • 按下 Win 键,搜索“环境变量”,点击「编辑系统环境变量」 -> 「环境变量」。
    • 在“系统变量”中点击「新建」:
      • 变量名OLLAMA_KEEP_ALIVE
      • 变量值24h

2. 下载核心模型 (解决“找不到模型”问题的关键)

很多用户报错 file does not exist 是因为模型标签过旧或拼写错误。请使用以下绝对可用的命令:

  1. 验证:下载完成后,看到 >>> 符号即代表模型已在本地运行。

备选方案 (国内镜像)
如果官网下载速度慢或失败,可以尝试国内开发者维护的镜像:

ollama run dengcao/qwen:8b-q4_0 

首选通用命令 (推荐)
直接运行以下命令,Ollama 会自动匹配并下载一个性能均衡的量化版通义千问模型(约5-6GB)。

ollama run qwen:8b-instruct-q4_K_M 
解释q4_K_M 是目前兼容性最好的量化格式,在8GB显存的设备上也能流畅运行,完美替代了你之前遇到问题的 q4_0

第三阶段:部署 OpenClaw (AI Agent 核心)

OpenClaw 是AI的大脑,它将利用 Ollama 提供的模型能力,执行复杂的任务自动化。

1. 安装 OpenClaw

在 PowerShell 中执行以下命令进行全局安装:

npminstall-g openclaw 

若安装速度慢,可先切换国内源:npm config set registry https://registry.npmmirror.com

验证

openclaw --version 

2. 初始化与配置

  1. 初始化向导
openclaw onboard 
  1. 在交互式向导中,除模型配置外可一路回车。当询问是否配置模型时,选择 Skip for now (稍后手动配置)。
  2. 手动对接 Ollama
    依次执行以下三行命令,告诉 OpenClaw 如何连接本地的 Ollama。注意:第三行的模型名必须与 ollama list 中显示的完全一致。
openclaw config set models.providers.ollama.apiKey "ollama-local" openclaw config set models.providers.ollama.baseUrl "http://localhost:11434/v1" openclaw config set models.default "ollama/qwen:8b-instruct-q4_K_M" 
  1. 重启生效
openclaw restart openclaw gateway start 

第四阶段:启动与验证 (见证奇迹)

1. 获取访问令牌

在 PowerShell 中执行,生成并复制你的登录令牌:

openclaw token generate 

2. 打开 Web 控制台

  1. 打开浏览器,访问:http://localhost:18789/
  2. 粘贴刚才复制的令牌,点击登录。

3. 开始对话

在输入框中输入:“你好,本地助手!”,如果收到流畅回复,恭喜你,部署成功!现在你可以断开网络测试,它依然能工作。


️ 附录:常见问题与避坑指南

问题现象解决方案
拒绝访问 / 权限不足请务必右键点击 PowerShell,选择 “以管理员身份运行” 后再执行命令。
node 不是内部命令Node.js 安装时未配置环境变量。请重装 Node.js,并勾选 Add to PATH
拉取模型速度极慢使用国内镜像命令 ollama run dengcao/qwen:8b-q4_0,或开启代理工具。
模型上下文太小请务必使用 q4_K_M 等量化版本,它们通常已包含足够的上下文窗口(约32K)。

** 进阶提示**:
部署完成后,你可以在控制台安装“文件处理”、“浏览器控制”等插件,让你的本地AI助手帮你自动整理下载文件夹、查询资料,真正解放生产力!

Read more

微信小程序如何优雅地跳转外部链接?WebView + 复制方案实战

在做小程序开发的过程中,我们经常会遇到这样一个需求: 👉 用户在小程序里点开一个课程/资料,需要跳转到公司内部的学习系统或者外部网站。 问题来了: * 小程序禁止直接用 <a> 标签跳转外部网页 * 也不能像浏览器里那样用 window.open * 那么,怎么实现呢? 这篇文章我会结合实际项目,聊聊 两种常见方案: 1. 业务域名 + WebView 打开外部链接 2. 不在业务域名里的 → 自动复制链接 1️⃣ 背景:小程序的安全限制 微信对小程序的外部链接有严格限制: * 只能通过 <WebView /> 组件来加载 H5 页面。 * 这个 H5 的域名,必须提前在 小程序后台 → 开发设置 → 业务域名 配置。 * 没配置的域名,一律打不开。 所以,解决问题的第一步就是搞清楚: 👉 目标链接的域名是否可控、

满分高危来袭!CVE-2026-21962击穿Oracle WebLogic代理插件,无认证远程控服全解析

2026年1月20日,Oracle发布2026年度首个关键补丁更新(CPU Jan 2026),一次性修复了全产品线158个CVE漏洞、发布337个安全补丁,其中27个关键级漏洞占比8%,涉及13个核心CVE编号。而Oracle WebLogic Server代理插件中曝出的CVE-2026-21962漏洞,凭借CVSS 3.1满分10.0的评级、无认证远程利用、低攻击复杂度的特性,成为本次更新中最具威胁的漏洞,也让全球大量部署WebLogic中间件的企业陷入安全危机。该漏洞并非简单的权限绕过,而是可直接实现远程命令执行(RCE),攻击者仅需构造恶意HTTP请求,即可绕过所有安全校验直接控制目标服务器,窃取、篡改核心业务数据,甚至实现内网横向移动,其危害覆盖金融、政务、能源、电商等所有使用WebLogic代理插件的关键行业。本文将从漏洞背景、技术原理、利用现状、防护方案及行业安全启示等维度,进行专业、全面的深度解读,并结合WebLogic历史漏洞规律给出前瞻性防护建议,为企业筑牢安全防线。 一、漏洞核心背景:Oracle 2026首波更新,WebLogic成高危重灾区 Oracl

OpenClaw启动后,web控制面板无法登录,返回信息:Not Found

OpenClaw启动后,web控制面板无法登录,返回信息:Not Found

在1.19这台服务器安装了OpenClaw,不管用浏览器,还是直接使用curl,都是返回信息:Not Found 但是1.12这台服务器就没有问题... curl http://localhost:18789 Not Found 查看绑定情况 openclaw config get gateway.bind 🦞 OpenClaw 2026.3.2 (85377a2) — I'm not saying your workflow is chaotic... I'm just bringing a linter and a helmet. loopback 绑定到lan 打开网络连通 openclaw config

SLAM前端中的GPU加速——以vins-fusion-gpu和ORB_SLAM2_CUDA为例

1  GPU GPU并不是一个独立运行的计算平台,而需要与CPU协同工作,可以看成是CPU的协处理器,因此当我们在说GPU并行计算时,其实是指的基于CPU+GPU的异构计算架构。在异构计算架构中,GPU与CPU通过PCIe总线连接在一起来协同工作,CPU所在位置称为为主机端(host),而GPU所在位置称为设备端(device)。 可以看到GPU包括更多的运算核心,其特别适合数据并行的计算密集型任务,如大型矩阵运算,而CPU的运算核心较少,但是其可以实现复杂的逻辑运算,因此其适合控制密集型任务。另外,CPU上的线程是重量级的,上下文切换开销大,但是GPU由于存在很多核心,其线程是轻量级的。因此,基于CPU+GPU的异构计算平台可以优势互补,CPU负责处理逻辑复杂的串行程序,而GPU重点处理数据密集型的并行计算程序,从而发挥最大功效。 CUDA是NVIDIA公司所开发的GPU编程模型,它提供了GPU编程的简易接口,基于CUDA编程可以构建基于GPU计算的应用程序,将cpu指令翻译成GPU指令。CUDA提供了对其它编程语言的支持,如C/C++,Python,Fortran等语