本地 AI 模型不够用?用cpolar让 Cherry Studio 随时随地为你干活

本地 AI 模型不够用?用cpolar让 Cherry Studio 随时随地为你干活

在这里插入图片描述
本文介绍了在 Windows 系统中安装多功能 AI 客户端 Cherry Studio 的详细流程,包括配置在线模型服务(如通过硅基流动 API 密钥使用在线大模型)和本地模型服务(对接 Ollama 部署的本地大模型),并展示了其智能体创建、AI 文生图等实用功能。为解决 Cherry Studio 仅限局域网访问的局限,文章还讲解了如何通过 cpolar 内网穿透工具,通过设置环境变量、创建隧道等步骤生成公网地址,实现远程调用本地模型,同时介绍了配置固定二级子域名公网地址的方法,让个人或团队能随时随地使用本地 AI 模型,兼顾数据隐私与远程协作效率。
在这里插入图片描述

文章目录

前言

Cherry Studio 是一款多功能 AI 客户端,支持连接 OpenAI、Gemini 等在线模型,也能对接本地 Ollama 部署的大模型,还自带文档处理、智能体协作等实用功能,无论是程序员调试代码、设计师生成素材,还是职场人处理文档都能用得上。它的优点在于优势在于模块化设计,既能直接用预设模板,也能自定义对话逻辑,新手老手都能快速上手。

用下来发现几个小技巧:配置本地模型时记得先启动 Ollama 服务,在线模型调用前要确认 API 密钥有效,智能体功能搭配不同模型使用效果更佳。不过要注意,在线模型按 token 计费,大量使用前最好算好成本。

但它有个明显局限:没公网访问的话,只能在同一局域网内用。比如家里部署了模型,上班时想远程调用就不行;团队共享本地模型时,不在同一网络也没法协作,挺影响效率的。

这时候搭配 cpolar 就方便多了。不用申请公网 IP,也不用买云服务器,通过内网穿透就能把本地模型服务映射到公网,出差时在酒店也能调家里的模型,团队成员异地也能共享使用,既保住了数据隐私,又解决了远程访问的难题。

本文主要介绍如何在Windows系统电脑本地安装开源AI客户端Cherry Studio,并结合cpolar内网穿透工具轻松实现随时随地远程调用本地部署的各种AI大语言模型,无需公网IP,也不用准备云服务器那么麻烦。

话不多说,下面就来详细介绍一下如何安装与使用!

img

【视频教程】

1. 本地安装

本例中使用的是Windows11专业版系统,本地已经提前准备好了DeepSeek-R1与千问QWQ-32B大模型。

如果不知道如何本地部署这两款AI大模型,可以查看下面的文章:《千问QwQ32B本地部署与远程访问》《Windows本地部署deepseek-r1大模型》

首先,我们访问Cherry Studio的github主页下载客户端:https://github.com/CherryHQ/cherry-studio/releases

找到Windows版本客户端安装程序下载即可:

image-20250321105737238

选择好安装位置后,即可快速安装:

image-20250321105817828
image-20250321105901495

2. 配置模型服务

打开客户端后,可以看到界面非常简洁明了。

image-20250321110051047

2.1 配置在线模型服务

点击左下角的设置,即可进行模型服务配置:

image-20250321110140817

这里我们拿硅基流动的模型服务进行举例,如果你本地没有部署deepseek等大模型,只要添加好API秘钥就能在Cherry Studio客户端中在线使用deepseek大模型!如果你没有它的API秘钥,点击下方获取秘钥,在跳转的页面注册一个账号就能免费获得你的API keys:

image-20250321114828835

将这个Key复制到Cherry Studio客户端中刚才的API秘钥框中,确定右上角的开关打开状态即可:

image-20250321114914351

现在点击底部的管理按钮,就能看到已经可以使用这里的几十种大模型了:

image-20250321132900103
image-20250321132916418

比如这里点击加号添加deepseek-r1-70b模型:

image-20250321133103897

然后点击客户端左上角的聊天图标,在对话框顶部的模型选择中,就可以看到刚才添加的70B模型了:

image-20250321133242065

现在就能在对话框中与deepseek在线聊天了:

image-20250321133400256

不过这种使用API接口在线调用大模型的方式通常都是根据消耗tokens计费,偶尔简单使用还可以,长期或大量使用的话可能需要准备好预算。

2.2 配置本地模型服务

如果你已经在本地服务器中部署了AI大模型,那么也可以在Cherry Studio客户端中配置本地模型服务,免费与大模型聊天,想用就用。

同样,我们点击Cherry Studio左下角的设置,在模型服务中选择Ollama,打开右上角的开关:

image-20250321134114781

点击管理:

image-20250321134139960

在这里可以看到我们之前在本地已经下载好的千问qwq-32b模型和deepseek-r1:1.5b模型,点击加号添加即可:

image-20250321134256709

然后回到客户端聊天界面,在对话框顶部的模型选择中,就可以看到刚才添加的本地模型了:

image-20250321134410285

现在就能在对话框中和本地的qwq-32b模型聊天了,无需担心额外费用:

image-20250321134615519

2.3 其他功能简单演示

除了使用Api key在线使用AI大模型和调用本地AI大模型聊天,Cherry Studio还有很多非常好用的功能。

2.3.1 创建智能体

我们可以点击聊天助手下的智能体功能,根据不同的使用场景选择自己需要的智能体模版进行创建:

image-20250321135243959

创建好之后,点击聊天助手,可以看到刚才创建的美文排版智能体,在这个模版界面中,我们可以选择在线大模型或者本地大模型后,在聊天框中提出问题:

image-20250321135606288
2.3.2 AI文生图

在创建智能体下边,我们还可以使用它来调用Flux.1或者SD模型来进行文生图:(需要配置提供商API秘钥)

image-20250321140008055

在模型选择中可以看到支持多个模型:

image-20250321140045138

除此之外,Cherry Studio还支持使用AI翻译,多种AI小程序等实用功能:

image-20250321140156315
image-20250321140225178

点击即可快速使用:

image-20250321140707850

3. 安装内网穿透工具

现在我们已经能在本地使用Cherry Studio超多AI功能带来的便利,但是如果想实现不在同一网络环境下,也能随时随地在线使用Cherry Studio客户端远程调用本地部署的AI大模型聊天与办公,那就需要借助cpolar内网穿透工具来实现公网访问了!

在上边我们配置本地模型服务时,使用的是在本地安装好的ollama接入大模型,想要远程调用大模型,需要进行对ollama进行一下环境变量设置。

打开cmd终端,执行下面两个命令:

setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"

然后再为它配置一个公网地址即可解决这个问题:

image-20250321134114781

接下来介绍一下如何安装cpolar内网穿透,过程同样非常简单:

首先进入cpolar官网:cpolar官网地址:https://www.cpolar.com

点击免费使用注册一个账号,并下载最新版本的cpolar:

image-20250307152003085

登录成功后,点击下载cpolar到本地并安装(一路默认安装即可)本教程选择下载Windows版本。

image-20240319175308664

4. 配置公网地址

cpolar安装成功后,在浏览器上访问http://localhost:9200,使用cpolar账号登录,登录后即可看到配置界面,结下来在WebUI管理界面配置即可。

img

接下来配置一下 本地ollama服务 的公网地址:

登录后,点击左侧仪表盘的隧道管理——创建隧道,

  • 隧道名称:ollama(可自定义命名,注意不要与已有的隧道名称重复)
  • 协议:选择 http
  • 本地地址:11434 (本地访问的地址)
  • 域名类型:选择随机域名
  • 地区:选择China Top
image-20250321142849112

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是http 和https:

image-20250321143433388

使用上面的任意一个公网地址,粘贴到Cherry Studio客户端的ollama模型服务的API地址里:

1742539038373

点击管理,即使不在同一网络环境下,也能看到在本地部署的qwq32b和deepseek模型!

image-20250321143918998

点击添加,即可在公网环境使用其他电脑随时随地远程调用本地内网大模型:

image-20250321144021612
image-20250321144037391

小结

为了方便演示,我们在上边的操作过程中使用cpolar生成的HTTP公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在24小时内会发生随机变化,更适合于临时使用。

如果有长期远程使用Cherry Studio远程调用本地AI大模型,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来为本地服务配置一个公网地址。

5. 配置固定公网地址

接下来演示如何为本地ollama配置固定的HTTP公网地址,该地址不会变化,方便分享给别人长期查看你部署的项目,而无需每天重复修改服务器地址。

配置固定http端口地址需要将cpolar升级到专业版套餐或以上。

登录cpolar官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留:

image-20250321144407766

保留成功后复制保留成功的二级子域名的名称:csollama,大家也可以设置自己喜欢的名称。

image-20250321144748454

返回Cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:ollama,点击右侧的编辑:

image-20250321144825087

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名:csollama

点击更新(注意,点击一次更新即可,不需要重复提交)

image-20250321145203916

更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:

image-20250321145249020

最后,我们使用上面的任意一个固定公网地址,粘贴到Cherry Studio客户端的ollama模型服务的API地址里:

image-20250321145426347

返回聊天助手界面,同样能看到在本地部署的qwq32b和deepseek模型,并正常聊天。

image-20250321145819864

远程调用本地qwq32b模型使用智能体排版文章也没问题!

image-20250321150344413
image-20250321151646214

总结

通过以上步骤,我们实现了在Windows系统电脑本地安装Cherry Studio客户端并配置本地AI大模型服务,并使用cpolar内网穿透工具轻松实现在公网环境中也能使用Cherry Studio远程访问本地部署的大模型,并为本地服务配置固定不变的二级子域名公网地址的全部流程。

经过简单测试,Cherry Studio这款AI工具确实效果很惊艳,支持的功能也非常多,而结合内网穿透使用则降低了使用门槛,无需二次部署,提高效率。另外,Cherry Studio针对个人用户免费,企业用户请联系官方合作。非常期待Cherry Studio后续的发展,也感谢您的观看,有任何问题欢迎留言交流。

通过 Cherry Studio 搭配 cpolar,不仅能充分发挥本地 AI 模型的作用,还突破了局域网限制,让远程调用、跨设备协作变得简单。无论是个人日常使用还是小团队协作,这种组合都能在控制成本的同时,提升 AI 工具的实用性,确实是值得尝试的高效方案。

本篇文章知识点来源[cpolar官网][https://www.cpolar.com]

联系博主

    xcLeigh 博主,全栈领域优质创作者,博客专家,目前,活跃在ZEEKLOG、微信公众号、小红书、知乎、掘金、快手、思否、微博、51CTO、B站、腾讯云开发者社区、阿里云开发者社区等平台,全网拥有几十万的粉丝,全网统一IP为 xcLeigh。希望通过我的分享,让大家能在喜悦的情况下收获到有用的知识。主要分享编程、开发工具、算法、技术学习心得等内容。很多读者评价他的文章简洁易懂,尤其对于一些复杂的技术话题,他能通过通俗的语言来解释,帮助初学者更好地理解。博客通常也会涉及一些实践经验,项目分享以及解决实际开发中遇到的问题。如果你是开发领域的初学者,或者在学习一些新的编程语言或框架,关注他的文章对你有很大帮助。

    亲爱的朋友,无论前路如何漫长与崎岖,都请怀揣梦想的火种,因为在生活的广袤星空中,总有一颗属于你的璀璨星辰在熠熠生辉,静候你抵达。

     愿你在这纷繁世间,能时常收获微小而确定的幸福,如春日微风轻拂面庞,所有的疲惫与烦恼都能被温柔以待,内心永远充盈着安宁与慰藉。

    至此,文章已至尾声,而您的故事仍在续写,不知您对文中所叙有何独特见解?期待您在心中与我对话,开启思想的新交流。


     💞 关注博主 🌀 带你实现畅游前后端!

     🥇 从零到一学习Python 🌀 带你玩转Python技术流!

     🏆 人工智能学习合集 🌀 搭配实例教程与实战案例,帮你构建完整 AI 知识体系

     💦 :本文撰写于ZEEKLOG平台,作者:xcLeigh所有权归作者所有)https://xcleigh.blog.ZEEKLOG.net/,如果相关下载没有跳转,请查看这个地址,相关链接没有跳转,皆是抄袭本文,转载请备注本文原地址。


在这里插入图片描述

     📣 亲,码字不易,动动小手,欢迎 点赞 ➕ 收藏,如 🈶 问题请留言(或者关注下方公众号,看见后第一时间回复,还有海量编程资料等你来领!),博主看见后一定及时给您答复 💌💌💌

Read more

零基础入门AI绘画:Z-Image-Turbo超详细教程

零基础入门AI绘画:Z-Image-Turbo超详细教程 你是不是也试过在AI绘画工具前卡住——下载模型要两小时、配置环境报错十几行、调参像解谜题、生成一张图等得泡完三杯茶?别急,这次我们不讲原理、不堆术语、不绕弯子。这篇教程专为完全没碰过代码、没装过CUDA、连Python都没写过的朋友准备。只要你会复制粘贴,就能在5分钟内,用一句中文提示词,生成一张1024×1024高清图。 这不是“理论上可行”,而是镜像已为你把所有路铺平:32GB模型权重早已躺在系统里,PyTorch和ModelScope全预装好,显卡插上就能跑。你唯一要做的,就是打开终端,敲下几行命令——然后看着屏幕跳出你想象中的画面。 下面全程手把手,每一步都配说明、每处易错点都标提醒、每个参数都告诉你“为什么这么设”。现在,深呼吸,我们开始。 1. 你不需要懂的,但必须知道的三件事 在动手前,请花30秒确认这三点。它们不是技术门槛,而是帮你避开90%新手踩坑的“保命清单”。 1.1 这个镜像只认一种显卡:NVIDIA

灵感画廊:5分钟快速上手Stable Diffusion艺术创作

灵感画廊:5分钟快速上手Stable Diffusion艺术创作 你是否曾有过这样的瞬间:脑海中闪过一个绝妙的画面,却苦于无法用画笔或软件将其呈现?或者,面对复杂的AI绘画工具,被一堆看不懂的参数和按钮劝退?今天,我将带你体验一款与众不同的AI艺术创作工具——灵感画廊。它没有冰冷的工业界面,只有如艺术沙龙般的恬静空间,让你在5分钟内,将脑海中的“梦境碎片”凝结成永恒的视觉诗篇。 1. 什么是灵感画廊? 灵感画廊不是一个普通的Stable Diffusion WebUI。它是一款基于 Stable Diffusion XL 1.0 模型深度定制的沉浸式艺术创作终端。它的设计哲学很特别:让创作过程本身成为一种审美享受。 想象一下,你走进一间充满宣纸色调、衬线字体和极简留白的数字画室。这里没有令人眼花缭乱的滑块和选项卡,只有“梦境描述”、“尘杂规避”和“挥笔成画”这样充满诗意的交互。它的目标,就是为你提供一个可以专注捕捉灵感的静谧空间。 对于新手来说,它的最大价值在于 “开箱即用” 和 “直观友好”。你不需要理解“

一文说清ESP32 Arduino在智能家居中的核心应用要点

以下是对您提供的博文内容进行 深度润色与结构重构后的技术文章 。整体遵循“去AI感、强工程味、重实操性、有教学节奏”的原则,彻底摒弃模板化表达、空洞术语堆砌和机械式章节划分,代之以 真实开发者口吻、层层递进的逻辑流、穿插经验判断的细节注解 ,并强化了 可复用代码的上下文解释、参数选择背后的权衡思考、以及量产级避坑指南 。 一个温控器工程师的ESP32实战手记:Wi-Fi不断连、任务不卡死、升级不翻车 去年冬天,我调试一款嵌入式温控器时,在客户现场连续遭遇三连击: - 凌晨三点,Wi-Fi突然掉线,加热膜持续满功率运行——幸好用户手动关了总闸; - 升级固件后设备黑屏,拆开发现 otadata 分区写了一半就断电,BootROM找不到有效镜像; - PIR人体检测响应延迟高达1.8秒,APP里显示“已离家”,人其实刚走到玄关。 这不是芯片不行,是配置没吃透。 ESP32 Arduino不是“会点C语言就能跑起来”的玩具平台,而是一套 需要你亲手拧紧每一颗螺丝的工业级开发范式

ROS 2从入门到精通系列(十六):自主导航机器人 - 系统架构与SLAM

ROS 2从入门到精通系列(十六):自主导航机器人 - 系统架构与SLAM 构建完整的自主导航系统,从建图到导航的端到端实现。 引言 自主导航是机器人最经典的应用之一。它涉及: * 感知:LIDAR扫描、里程计 * 建图:SLAM建立环境地图 * 规划:生成无碰撞路径 * 控制:执行运动命令 本篇将从0到1构建一个完整的导航系统。 一、自主导航系统架构 1.1 完整的系统架构 硬件层 控制模块 运动控制 PID Control 安全监督 Emergency Stop 规划模块 全局规划 Dijkstra/A* 局部规划 DWA/TEB 可行性检查 Feasibility Check 感知模块 扫描匹配 Scan Matching 里程计 Odometry