保姆级教程:Windows本地部署Ollama+OpenClaw,打造你的AI赚钱系统(APP开发/量化/小说/剪辑)

摘要:想用AI搞钱但卡在技术门槛?本文手把手教你用一台Windows电脑,零成本本地部署Ollama大模型+OpenClaw智能中枢,赋予AI开发APP、量化分析、编写小说、剪辑辅助等“赚钱技能”。全程无需编程基础,跟着鼠标点、照着命令敲,即可拥有24小时待命的AI员工。

一、写在前面

很多朋友对AI变现跃跃欲试,却常被这些问题劝退:

  • 云端部署太贵,API调用怕浪费钱
  • 技术文档看不懂,不知道从哪下手
  • 数据隐私担忧,不敢把敏感资料上传

其实,你手头那台Windows电脑完全能胜任!本文将带你搭建一套完全本地化、免费、可扩展的AI生产力系统,让AI帮你写代码、分析表格、生成文案、处理视频,真正把AI变成你的“赚钱工具”。

系统架构

  • 本地大脑:Ollama + DeepSeek模型,负责理解任务、生成内容
  • 智能中枢:OpenClaw(原名OpenClaude),负责调用各类工具(Skill)
  • 赚钱技能:通过安装Skill包,让AI具备特定领域的实操能力

适用人群:完全零基础小白、想尝试AI副业的上班族、技术爱好者。


二、硬件准备(先给电脑做个“体检”)

在动手前,先确认你的电脑是否达标。这决定了AI的运行速度。

配置项最低要求推荐配置(体验流畅)检查方法
操作系统Windows 10 64位Windows 11右键“此电脑”->“属性”
内存16GB32GB打开任务管理器->“性能”
硬盘20GB空闲50GB以上(SSD固态更好)打开“此电脑”查看
显卡 (GPU)非必需,但有更好NVIDIA显卡(RTX 2060及以上)任务管理器->“性能”->“GPU”
特别提示:如果没有独立显卡,仅靠CPU也能运行,只是响应稍慢,不影响学习和使用。

三、打造AI大脑:安装Ollama并部署DeepSeek模型

Ollama是一个极简的大模型管理工具,可以像安装App一样在本地运行各种模型。我们选择国产开源模型DeepSeek-R1(7B),它在推理和代码生成方面表现出色,且对内存友好。

1. 下载Ollama安装包

  • 打开浏览器,访问Ollama官网:https://ollama.com/
  • 点击 “Download”,选择 “Windows” 版本。
  • 下载完成后,双击安装包,一路点击“Next”完成安装。安装成功后,任务栏右下角会出现一个小羊驼图标,表示Ollama已在后台运行。

2. 下载DeepSeek模型

  • 按键盘 Win + R,输入 cmd 回车,打开命令提示符窗口(黑色界面)。
  • 等待进度条走完(约10-30分钟,取决于网速)。下载完成后会自动进入对话界面,出现 >>> 提示符,此时你可以输入“你好”测试,模型会回复你。
  • 输入 /bye 可退出对话。

复制以下命令并回车(首次运行会自动下载模型):

ollama run deepseek-r1:7b 
验证:任何时候想再次启动模型,只需在命令行输入 ollama run deepseek-r1:7b

四、安装智能中枢:OpenClaw(原OpenClaude)

现在AI大脑已经就绪,但它还不能操作你的电脑、调用外部工具。OpenClaw就像一个“操作系统”,让AI拥有执行具体任务的能力。

1. 安装Node.js环境

  • 访问Node.js官网:https://nodejs.org/
  • 下载左侧的 LTS版本(推荐初学者使用稳定版)。
  • 双击安装包,务必勾选“Automatically install the necessary tools”(自动安装必要工具),然后一路“Next”完成安装。这会自动配置好Python、Visual Studio Build Tools等依赖。

2. 验证Node.js安装

重新打开命令提示符(Win+R -> cmd),分别输入以下命令,看到版本号(如v22.x.x)即成功:

node--versionnpm--version

3. 全局安装OpenClaw

  • 引导过程中会询问几个问题,请按以下方式回答:
    • 选择默认模型:输入 deepseek-r1:7b(我们刚才下载的模型)
    • API Key:本地模型无需Key,直接回车跳过
    • 工作区路径:直接回车使用默认路径(C:\Users\你的用户名\.openclaw
    • 安装守护进程:输入 Yes,这样即使关闭命令行窗口,AI中枢也会在后台运行

安装完成后,执行新手引导命令,让OpenClaw自动完成基础配置:

openclaw onboard --install-daemon 

在命令行中执行:

npminstall-g openclaw@latest 

4. 验证中枢是否运行

  • 如果显示 “running”,说明一切正常。
  • 打开浏览器,访问 http://127.0.0.1:18789/,你将看到OpenClaw的管理后台界面(首次登录需查看配置文件中的token,位于 C:\Users\你的用户名\.openclaw\openclaw.json 内)。

输入以下命令查看状态:

openclaw gateway status 

五、赋予“赚钱技能”(安装Skill包)

Skill相当于AI的“插件”或“APP”。OpenClaw通过Skill让AI调用具体工具,例如写代码、处理数据、生成文档等。下面演示如何安装四个典型赚钱技能。

1. 进入工作区

在命令行中,进入OpenClaw默认的工作区目录:

cd %USERPROFILE%\.openclaw\workspace 

2. 安装各技能包

【技能一】APP开发助手(skill-developer)

克隆开发技能仓库,并安装依赖:

git clone https://github.com/openclaw/skill-developer.git cd skill-developer npminstallcd..
【技能二】量化管理/数据分析(skill-data-analysis)

安装数据分析技能,可处理Excel、CSV,生成报表:

git clone https://github.com/openclaw/skill-data-analysis.git cd skill-data-analysis npminstallcd..
【技能三】长篇小说编写(skill-writer)

安装写作技能,可生成小说、脚本、文案等:

git clone https://github.com/openclaw/skill-writer.git cd skill-writer npminstallcd..
【技能四】视频剪辑辅助(skill-video-helper)

安装视频辅助技能,可生成字幕、剪辑脚本、调用FFmpeg处理视频:

git clone https://github.com/openclaw/skill-video-helper.git cd skill-video-helper npminstallcd..

3. 激活技能

技能包下载后,需要告知OpenClaw启用它们。

  • 用记事本打开配置文件:C:\Users\你的用户名\.openclaw\openclaw.json

保存文件后,在命令行执行重启命令,使配置生效:

openclaw gateway restart 

找到 "skills" 字段,按照以下格式添加刚才安装的技能路径(注意将 你的用户名 替换为实际用户名,路径分隔符使用双反斜杠或正斜杠):

"skills":{"developer":{"path":"C:/Users/你的用户名/.openclaw/workspace/skill-developer","enabled":true},"data-analysis":{"path":"C:/Users/你的用户名/.openclaw/workspace/skill-data-analysis","enabled":true},"writer":{"path":"C:/Users/你的用户名/.openclaw/workspace/skill-writer","enabled":true},"video-helper":{"path":"C:/Users/你的用户名/.openclaw/workspace/skill-video-helper","enabled":true}}

六、实战:让AI帮你赚钱(使用场景示例)

所有组件安装完成,现在你可以通过OpenClaw后台(http://127.0.0.1:18789/)与AI对话,并利用技能完成实际任务。

1. 副业场景:帮人开发小程序/写脚本

  • 对话示例:“调用developer技能,帮我用Python写一个简单的计算器程序,带图形界面,代码保存到桌面。”
  • AI会生成代码并创建文件,你可以直接交付给客户。

2. 副业场景:数据分析接单

  • 对话示例:“调用data-analysis技能,分析桌面上‘销售数据.xlsx’文件,找出销售额最高的10个商品,并用柱状图展示,生成分析报告。”
  • AI会读取文件、分析数据、生成图表和报告,省去手动处理的时间。

3. 副业场景:自媒体文案/小说创作

  • 对话示例:“调用writer技能,以‘末日重生’为主题写一篇5000字的短篇小说,第一章要包含冲突和悬念,输出为Word文档。”
  • AI能快速产出高质量内容,助你运营自媒体或接写作单。

4. 副业场景:视频剪辑辅助

  • 对话示例:“调用video-helper技能,根据这段口播稿生成一份带时间轴的字幕文件(SRT格式),帮我保存到视频文件夹。”
  • AI生成字幕文件后,你可直接导入剪辑软件,提高剪辑效率。

七、常见问题与注意事项

Q1:电脑配置不高,运行卡顿怎么办?

  • 可以尝试更小的模型,如 deepseek-r1:1.5b(仅需4GB内存)。更换模型命令:ollama run deepseek-r1:1.5b
  • 关闭其他占用内存的软件,确保AI有足够资源。

Q2:安装过程中出现错误怎么办?

  • 路径问题:Windows用户名不要包含中文,否则可能导致路径识别错误。如果已有中文用户名,建议新建一个英文名用户。

网络问题:大部分失败是由于GitHub或npm源被墙。可以尝试使用国内镜像:

npm config set registry https://registry.npmmirror.com 

Q3:如何让AI长期在线?

  • 保持电脑开机即可。如果想7x24小时运行,可以用旧电脑专门跑,或部署到云服务器(如腾讯云轻量应用服务器,安装Windows Server)。

Q4:技能包不够用怎么办?

  • 你可以访问OpenClaw官方GitHub或社区,查找更多技能包,也可以自己开发(需要一定编程基础)。

八、总结

通过本文,你已经成功在Windows电脑上搭建了一套完整的本地AI系统:

  • Ollama:运行DeepSeek大模型
  • OpenClaw:管理AI与外部工具的交互
  • 多个Skill:赋予AI开发、分析、写作、剪辑等赚钱能力

这套系统完全免费、数据私有,你可以随时指挥AI为你工作,接各种副业单子。技术不再是门槛,想法和执行力才是关键。

如果你在搭建过程中遇到问题,欢迎在评论区留言交流。别忘了点赞收藏,方便后续实操哦!

延伸阅读:想了解更多Skill的使用技巧?关注我,后续将推出“AI变现案例实战”系列。

Read more

解放双手,让 AI 帮咱审查代码——GitLab 智能审查实战指南

unsetunset一、题记unsetunset 你是不是有如下这些困扰? 困惑1:代码审查效率低下。 团队成员提交的 MR(Merge Request)堆积如山,人工审查耗时耗力,经常因为时间紧迫而草草通过? 困惑2:代码质量参差不齐。 新人代码风格不统一,老手也难免疏忽,潜在的安全风险和性能问题常常在上线后才暴露?  曾几何时,13年前作为新入职员工,每隔几个月都要参加公司的代码规范考试,考不过要补考。补考不过再补考,直到考过为止...... 困惑3:审查标准难以统一。 不同审查者的关注点不同,缺乏统一的审查标准,导致代码质量波动较大? 如果你深受以上痛点困扰,那么本文将为你带来一套完整的解决方案——通过 GitLab 与 Coco AI 的深度集成,实现智能化、自动化的代码审查流程。 让 AI 助手在每次代码提交时自动检测代码风格问题、安全漏洞和潜在 bug,为你的代码质量把好第一道关。 unsetunset二、完整实现步骤unsetunset 2.0 前置条件 * 1、

By Ne0inhk

在CodeBuddy中使用自定义AI接口,轻松对接GPT5-Code等大模型,实现AI编程自由!

使用过CodeBuddy的朋友都知道,新用户赠送的大模型使用额度太少了,跑一天就没了,根本就支撑不住我们的Vibe Coding! 比如痴狂哥最近做的项目,没到半天额度就满了:不写一行代码!我用 AI 打造了一款 AI 客户端!(开源) 所以,今天痴狂哥就给大家公布一个自用的方法,让CodeBuddy编辑器能够使用我们自定义的AI接口和大模型,能够无限地愉快自动化编程!实现真正的AI编程自由! 实现效果 1. 让CodeBuddy使用自定义大模型接口,轻松对接如GPT5-Codex等大模型 2. 不消耗用户的使用量,无限免费Vibe Coding! 好了,我们开始吧! 准备工作 1. CodeBuddy海外版(截至至文章发布日期的最新版本0.2.4) 2. Python3(脚本环境) 3. Reqable(抓包工具) 以上软件自行前往官网下载安装。 第一步:重定向大模型接口 将CodeBuddy请求大模型的接口地址,重定向到我们自己的任意大模型API! 安装完毕之后,我们首先打开Reqable,初始化配置,装好证书后启动代理

By Ne0inhk
openJiuwen集成蓝耘AI模型深度解析:从架构设计到企业级Agent实战部署

openJiuwen集成蓝耘AI模型深度解析:从架构设计到企业级Agent实战部署

前言 在人工智能技术从单纯的感知智能向认知智能演进的浪潮中,大语言模型(LLM)的成熟催生了AI Agent(人工智能体)这一全新的应用形态。AI Agent不再局限于传统的单指令执行,而是演进为具备自主感知、推理规划、决策执行能力的智能实体。在这一技术变革背景下,openJiuwen作为一个致力于提供灵活、强大且易用能力的开源Agent平台应运而生。本文将深度剖析openJiuwen的技术架构、核心优势,并基于真实的服务器部署环境,详细拆解从底层环境搭建到上层复杂智能体构建的全过程。 一、 Agentic AI时代的基础设施:openJiuwen概览 openJiuwen的定位不仅是一个开发工具,而是面向生产级应用的Agent全生命周期管理平台。它旨在解决当前大模型应用落地过程中面临的开发门槛高、协同调度难、运行稳定性差等痛点。通过提供标准化的开发框架与高可靠的运行引擎,openJiuwen支持开发者快速构建能够处理各类简单或复杂任务的AI Agent,并实现多Agent间的协同交互。 作为核心代码资产的入口,开发者能在这里查看项目的 Readme 文档、分支管理和最新提交

By Ne0inhk
免费开源AI工具:CoPaw与OpenFang整理

免费开源AI工具:CoPaw与OpenFang整理

CoPaw 和 OpenFang,两者软件本体都免费开源,但模型 API 可能产生费用。 CoPaw(阿里云) * 软件本身:完全免费开源(Apache 2.0),无会员、无广告、无功能限制 * 本地部署:免费,仅需 Python 环境,可跑本地模型(Ollama 等),零 API 费用 * 云端部署:魔搭创空间有免费测试额度;长期使用按云资源(CPU/GPU/ 存储)计费 * 模型 API:调用通义千问、OpenAI、DeepSeek 等按官方标准按量付费  CoPaw GitHub 地址 https://github.com/agentscope-ai/CoPaw OpenFang(

By Ne0inhk