玩转 OpenClaw + Ollama:零成本在家折腾一个既安全又强悍的私人 AI 助手

玩转 OpenClaw + Ollama:零成本在家折腾一个既安全又强悍的私人 AI 助手

别再担心隐私泄露了,如果你想在完全不联网的环境下跑 AI 代理,那 Ollama 绝对是目前的头号选择。它能让你在自己电脑上秒拉 Llama、Qwen 这些热门的开源模型。OpenClaw 现在跟 Ollama 配合得特别默契,不光能自动认出你下好的模型,连流式对话和工具调用这些高级功能也一个不落。只要简单点点,你的本地 AI 就能支棱起来。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

为啥推荐你用 Ollama + OpenClaw?

  • 数据纯本地:所有的对话都在你眼皮子底下跑,数据绝不出屋。
  • 上手没难度:想下什么模型,直接 ollama pull 一行命令搞定。
  • 工具调用贼稳:用的是 Ollama 原生接口,执行函数调用时比兼容模式靠谱得多。
  • 模型自动发现:你刚下好的模型,OpenClaw 马上就能认出来,不用手动去改列表。
  • 薅显卡羊毛:只要你有设备,推理全免费,再也不用看 API 余额了。
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

快速开搞:简单四步让本地代理跑起来

第一步:把 Ollama 装好

去官网上把 Ollama 客户端下回来装上,不管你是 Windows、Mac 还是 Linux 都能跑。

第二步:拉个模型试试水

代码语言:TXT

# 比较推荐这个,中文效果好且速度快 ollama pull glm-4.7-flash # 追求通用的可以选这些 ollama pull llama3.3 ollama pull mistral 
💡 想看看自己都装了啥?敲个 ollama list 就行。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第三步:启动 OpenClaw 配置向导

代码语言:TXT

openclaw onboard 

在跳出来的菜单里根据你的需求选:

  • Local:纯本地党选这个,主打一个断网也能用。
  • Cloud + Local:如果你还想蹭点像 kimi-k2.5:cloud 这种云端模型,就选这个。
    OpenClaw 默认会帮你推荐这些:
  • 本地首选:glm-4.7-flash
  • 云端首选:kimi-k2.5:cloudglm-5:cloud

第四步:定好你的默认模型

代码语言:TXT

# 直接用命令设 openclaw models set ollama/glm-4.7-flash # 或者去改 openclaw.json 文件 { "agents": { "defaults": { "model": { "primary": "ollama/glm-4.7-flash" } } } } 

搞定!现在的 OpenClaw 已经完全由你的本地 Ollama 驱动了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

核心黑科技:模型自动感应

OpenClaw 聪明的地方在于它的“隐式提供商”逻辑:
只要你满足这两点:

  1. 随便设个 OLLAMA_API_KEY(比如填个 "ollama-local")。
  2. 在配置里去手动定义 models.providers.ollama
    OpenClaw 就会自动去连 http://127.0.0.1:11434,把本地模型全翻出来,连上下文窗口多大、是不是推理模型都能自己识别出来,而且统统记为零成本。
🔄 同步很快:你这边刚 ollama pull 完,那边 openclaw models list 就能看到新模型,根本不用重启。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

⚠️ 避坑指南:千万别手痒加 /v1 后缀!

Ollama 给出了两种连接方式:

  • 原生模式:地址是 http://host:11434。这才是 OpenClaw 的首选,工具调用和流式输出都稳如老狗。
  • OpenAI 兼容模式:地址带个 /v1。这种模式下工具调用很容易翻车,甚至给你甩出一堆 JSON 原文。
    听我的,配置里绝对不要带 /v1
    ✅ 正确做法:
{ "baseUrl": "http://localhost:11434" } 

❌ 错误示范:

{ "baseUrl": "http://localhost:11434/v1" } // 这样会导致 AI 变“智障”,工具没法用! 

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

进阶玩法

场景 1:给远程服务器上的 Ollama 用

如果你的模型跑在另一台电脑上,那就得老老实实写配置了:

{ "models": { "providers": { "ollama": { "apiKey": "ollama-local", "baseUrl": "http://192.168.1.100:11434", // 同样别加 /v1 "api": "ollama", "models": [ { "id": "llama3.3", "contextWindow": 8192, "maxTokens": 2048 } // 这种情况下得手动列出模型 ] } } } } 

场景 2:非得用兼容模式(不建议)

如果你因为某些特殊原因必须走 OpenAI 格式,那记得把流式输出关了:

{ "models": { "providers": { "ollama": { "baseUrl": "http://localhost:11434/v1", "api": "openai-completions", "injectNumCtxForOpenAICompat": true, "models": [/* ... */] } } }, "agents": { "defaults": { "models": { "ollama/llama3.3": { "params": { "streaming": false } } } } } } 

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

常见问题排查

遇到啥事了试试这么办
OpenClaw 抓瞎找不到 Ollama看看 OLLAMA_API_KEY 设了没,或者删掉手动定义的 provider
模型列表是空的看看你是不是还没运行 ollama pull 下模型
提示连接不上确认 ollama serve 开着呢,端口是不是 11434
工具调用不灵破案了,肯定是你地址里加了 /v1
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

总结

靠着 OpenClaw 和 Ollama 的这套组合拳,你完全可以在家搭起一个既私密又强大的 AI 代理系统。不管是拿来做开发测试,还是搞个人知识库,它都能给你拉满灵活性。
话不多说,直接开干:
代码语言:TXT

ollama pull glm-4.7-flash export OLLAMA_API_KEY="ollama-local" openclaw onboard # 选 Ollama 模式 

把 AI 关进笼子里,让它真正为你所用。

Read more

无界智能客服:基于大模型的自助式AI对话系统构建与应用

无界智能客服:基于大模型的自助式AI对话系统构建与应用

🧑 博主简介:ZEEKLOG博客专家,历代文学网(PC端可以访问:https://literature.sinhy.com/#/?__c=1000,移动端可关注公众号 “ 心海云图 ” 微信小程序搜索“历代文学”)总架构师,16年工作经验,精通Java编程,高并发设计,分布式系统架构设计,Springboot和微服务,熟悉Linux,ESXI虚拟化以及云原生Docker和K8s,热衷于探索科技的边界,并将理论知识转化为实际应用。保持对新技术的好奇心,乐于分享所学,希望通过我的实践经历和见解,启发他人的创新思维。在这里,我希望能与志同道合的朋友交流探讨,共同进步,一起在技术的世界里不断学习成长。 🤝商务合作:请搜索或扫码关注微信公众号 “ 心海云图 ” 无界智能客服:基于大模型的自助式AI对话系统构建与应用 摘要 人工智能技术正以前所未有的速度重塑商业格局,大模型作为AI领域的重要进展,已在多个行业展现出变革性潜力。然而,对众多中小企业而言,AI技术的应用仍面临技术门槛高、开发成本大、人才资源缺等现实挑战。 本文以无界AI客服平台为例,系统介绍一种通过技术封装与流程

【前沿解析】2026年3月2日AI双重突破:MWC IQ时代与DeepSeek V4多模态革命

摘要:本文深入解析2026年3月2日AI领域两大标志性突破:巴塞罗那MWC 2026大会开启的"IQ时代"与DeepSeek V4多模态大模型的发布。文章涵盖技术原理、架构设计、Go/Python代码实现及产业影响分析,为开发者提供全面的前沿技术参考。 关键词:MWC 2026, DeepSeek V4, 多模态大模型, Agentic AI, 端侧AI代理, 国产算力适配, 100万Token上下文, mHC架构, Engram记忆 一、引言:AI技术演进的双重里程碑 2026年3月2日,将成为人工智能发展史上的重要坐标。这一天,两大突破性事件同步发生:在西班牙巴塞罗那,世界移动通信大会(MWC 2026)正式开幕,主题定为"IQ时代"(The IQ Era),标志着智能终端从被动响应向主动服务的范式转移;与此同时,深度求索(DeepSeek)

AI大模型驱动的软件开发革命:从代码生成到自愈系统的全流程重构

AI大模型驱动的软件开发革命:从代码生成到自愈系统的全流程重构

目录 * 引言:软件开发范式转移的临界点 * 技术演进:从辅助工具到开发中枢 * 需求分析阶段:智能需求工程师 * 设计阶段:AI架构师登场 * 编码阶段:从Copilot到AutoCode * 测试阶段:智能测试工程师 * 部署与运维:自愈式系统 * 行业应用场景深度解析 * 医疗领域:智能陪诊系统 * 金融领域:智能合规助手 * 技术挑战与解决方案 * 数据隐私保护 * 模型可解释性 * 未来趋势:AI原生开发范式 * 开发工具链重构 * 开发者角色转型 * 产业链影响 * 总结与展望 引言:软件开发范式转移的临界点 在GitHub Copilot用户突破1.5亿的2025年,AI大模型已渗透到软件开发的每个环节。根据微软Build大会披露的数据,某金融企业通过AI开发平台将新功能上线周期从6个月压缩至6周,人力成本降低40%。这场变革不仅体现在效率提升上,更重塑了软件开发的底层逻辑。本文将结合2025年最新实践案例,深度解析AI大模型如何重构软件开发全生命周期。 技术演进:从辅助工具到