Linux 部署 Ollama+Qwen+OpenClaw 对接飞书本地大模型
在 Linux Ubuntu 系统上部署本地大模型的完整流程。首先通过 Ollama 运行轻量级 Qwen3.5 模型,接着安装配置 OpenClaw 平台,选择自定义 Provider 接入本地 Ollama 服务。通过 SSH 端口转发访问可视化界面,并进一步配置飞书机器人实现集成。最终实现无 API 限制、可离线使用的本地 AI 服务,支持 Web 交互及飞书消息推送。

在 Linux Ubuntu 系统上部署本地大模型的完整流程。首先通过 Ollama 运行轻量级 Qwen3.5 模型,接着安装配置 OpenClaw 平台,选择自定义 Provider 接入本地 Ollama 服务。通过 SSH 端口转发访问可视化界面,并进一步配置飞书机器人实现集成。最终实现无 API 限制、可离线使用的本地 AI 服务,支持 Web 交互及飞书消息推送。

基于当前 AI 的使用程度,定制化需求和考虑离线使用 AI 问题,本地部署 AI 成为一种趋势。
技术栈为:Ollama、OpenClaw、Qwen 大模型
可在官网下载安装包,或使用安装脚本:
curl -fsSL https://ollama.com/install.sh | bash
本机 Ubuntu 虚拟机部署,选择轻量级模型:
ollama run qwen3.5:2b
跑起来查看是否可以进行问答操作。
ollama listollama run <指定模型 + 版本>排查是否有 Node.js 且版本 >= 22。Node 安装脚本如下:
# 下载并安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh | bash
# 加载 nvm
. "$HOME/.nvm/nvm.sh"
# 下载并安装 Node.js
nvm install 24
# 验证 Node.js 版本
node -v
# 应打印 "v24.14.0"
# 验证 npm 版本
npm -v
# 应打印 "11.9.0"
curl -fsSL https://openclaw.ai/install.sh | bash
# 或跳过引导
# curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard
iwr -useb https://openclaw.ai/install.ps1 | iex
# 或
&([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1)))-NoOnboard
在安装向导中,先不选择接入 Qwen 模型,全部跳过,后续在配置里面接入 Ollama。 执行初始化向导:
openclaw onboard --install-daemon
执行完初始化向导后,进行 OpenClaw 配置:
openclaw config
选择 local 后,再选择 Mode。如果直接选择 Qwen 的话部署的是在线模型,是有 token 限制的,我们是本地部署,选择 Custom Provider 进入后自定义模型配置。
Ollama 的地址我这里是 172.0.0.1:11434。
根据提示下 API Base URL 输入地址 http://172.0.0.1:11434/v1 (必须加上 v1,因为 Ollama 识别到请求的 OpenApi 就是 http://172.0.0.1:11434/v1/XXXXXX,OpenClaw 默认不给你加 v1,你必须自己手动加)。
设置 APIKEY,因为我们跑的是本地模型,不存在 APIKEY,这里我们直接随便输入或者敲回车略过就行。 提示 Endpoint compatibility(API 端点兼容性设置),如下图,选择 OpenAI-compatible。
根据提示输入 ModeID: 因为之前拉取的是 qwen3.5:2b,这里 Model Id 直接输入 qwen3.5:2b,回车后 OpenClaw 直接拉取并配置 Ollama 下 qwen3.5:2b 模型。
配置别名:下面会填写好几个别名,这里就没有什么讲究了,起完别名自己记住就行了。 最后配置完成之后,选择 Continue 提交退出。
# 启动网关
openclaw gateway
# 打开 UI 页面
openclaw dashboard
由于 OpenClaw 不提供外部源访问,这里直接用 SSH 端口转发方式进行主机端访问:
# 192.168.1.44 为 linux 服务器的 IP
ssh -N -L 18789:127.0.0.1:18789 [email protected]
根据提示访问:http://localhost:18789/#token=...
打开飞书开放平台,创建企业自建应用。
按照界面指引创建机器人。
批量导入权限(直接复制):
{
"scopes": {
"tenant": [
"base:app:copy",
"base:app:create",
"base:app:read",
"base:app:update",
"base:collaborator:create",
"base:collaborator:delete",
"base:collaborator:read",
"base:dashboard:copy",
"base:dashboard:read",
"base:field:create",
"base:field:delete",
"base:field:read",
"base:field:update",
"base:form:read",
"base:form:update",
"base:record:create",
"base:record:delete",
"base:record:read",
"base:record:retrieve",
"base:record:update",
"base:role:create",
"base:role:delete",
"base:role:read"
订阅方式设置成使用 长连接 接收事件后再进行最后版本发布。
按照配置指导会让输入飞书应用的 App ID、App Secret,直接拷贝就行。 按照下图步骤,选择输入完成后,进行 finished。
访问时会回复没有权限。 解决办法:
openclaw pairing approve feishu <你的 App ID> 敲回车。# 直接修改配置文件
openclaw config set channels.feishu.dmPolicy "allowlist"
# 这里 ou_63985fc0b877330b926df092b8145XXX 修改为你的 user id
openclaw config set security.allowlist "[\"ou_63985fc0b877330b926df092b8145XXX\"]"
openclaw config set security.dmPolicy pass
设置完成之后一定要记得重启网关 openclaw gateway restart。
本文完整讲解了 Linux 系统离线部署 ollama + Qwen 本地大模型 + OpenClaw 可视化平台的全套流程,核心目标是搭建无 API 限制、可离线使用的本地 AI 服务。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML转Markdown在线工具,online