[大模型实战 02] 图形化的大模型交互: Open WebUI部署指南

[大模型实战 02] 图形化的大模型交互: Open WebUI部署指南
核心摘要 (TL;DR)目标:为本地的 Ollama 模型穿上漂亮的图形化界面 (GUI)。工具:Docker + Open WebUI (社区最活跃的开源 WebUI)。核心功能:媲美 ChatGPT 的对话界面、本地知识库 (RAG)、自定义角色 (Agent)。

相信各位友人在上一篇文章中,已经学会了如何用ollama在终端中运行Qwen模型。命令行工具有时候会感觉有点过于Geek,黑洞洞的命令窗口和冷冰冰的滚动的文字的技术感是有的,但是对于如果咱们想把大模型展示给其他朋友,或者自己想日常使用,那这时候咱们就需要换一个更友好,更光鲜的交互方式。

这也是这篇博文想带大家解决的问题:用10分钟时间,搭建一个功能媲美ChatGPT的私有化网页页面,并且连接咱们的模型

Open WebUI就是我们完成这个目标的利器,其也是目前社区最活跃,功能最强大的开源大模型交互界面。

01. 模型服务准备

在开始之前,因为要接入咱们的Ollama模型,所以我们要确认我们的Ollama服务运行起来了。

可以通过在终端输入curl http://localhost:5656命令去验证其是否正确开启。(当然,这个端口号需要根据咱们自己的配置来,默认还是11434,经过上一篇博文,咱们为了避免服务器端口被扫导致咱们模型被滥用,已经将端口切换到5656了)。
如果显示Ollama is running,就说明咱们准备ok了。

终端运行curl命令的截图,显示"Ollama is running"的返回结果

02. 使用docker一键安装 Open WebUI

docker是个好东西,只需要几行命令,就能帮咱们部署各种服务。如果还没有了解过,那么强烈安利去学习一下基本命令。同样在这里,安装Open WebUI最简单,最省心的发自也是使用docker。如果是Windows用户,还没有安装Docker Desktop,可以先去Docker官网下载安装一下

我们这里使用下面这条命令,来自动下载OpenWebUI镜像并且启动该服务

docker run -d \ --network=host \ -v open-webui:/app/backend/data \ -e OLLAMA_BASE_URL=http://127.0.0.1:5656 \ -e PORT=3000\ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main 

这里稍微解释一下,这行命令做了什么

  • -d:后台静默运行。在后台悄悄跑着,不会因为关掉了终端就消失了。
  • --network=host以及-e OLLAMA_BASE_URL=http://host.docker.internal:5656:关键参数**。这让 Docker 容器内部能通过这个特殊的地址访问我们宿主机上的 Ollama 服务。注意这里的端口需要是我们的Ollama服务端口
  • -v open-webui:/app/backend/data:将容器的/app/backend/data目录映射到docker管理的的open-webui目录,这样就把聊天记录和设置保存到本地卷中,防止重启 Docker 后数据丢失。如果想要清除该卷,可以在关闭容器后,通过docker volume rm open-webui去删除
终端执行 Docker 命令后的截图,显示一串容器 ID 意味着启动成功

输入下面的命令,可以查看Open WebUI的容器是否运行成功

dockerps -a 
运行完docker ps -a后的状态结果验证截图

和上图一样,各位友人如果看见状态(Status)是Up的,我们就可以进行下一步,去打开咱们的服务了。

打开任意浏览器,访问http://localhost:3000,就能看见设计精良的登录页面了

安装好OpenWebUI服务后,打开登录页面的截图

附上官方链接和官方文档,以供有深入了解想法的友人去探索。
Open WebUI的github链接
Open WebUi的官方文档

03. 连接大模型

3.1 注册管理员账号

各位友人第一次打开页面,需要咱们注册一下账号。因为是本地部署的服务,所以,账号密码都只在咱们自己的电脑里,不会上传给其他人(当然,如果咱们部署在服务器上,别人也是可以访问,登录的)

3.2 选择模型

登录上之后,整个界面还是非常清新的,布局和ChatGPT是很相像的。然后我们就需要选择我们刚才的Ollama模型

  1. 点击左上角的 选择模型下拉菜单
  2. 选择好之后,我们进行下一步

应该能看到咱们的modelscope.cn/Qwen/Qwen3-0.6B-GGUF模型,如果没有也没事,我们可以权且先跳过这一块儿,先看看后面的解决方案,解决了再回来。

界面左上角下拉菜单展开,鼠标指向 qwen 模型

如果在选择模型菜单中,没有看到我们的模型,就需要检查一下OpenWebUI的ollama配置

  1. 验证通过,就能回到主页找到我们的模型了

核对当前的连接地址,端口是否正确,然后点击验证链接按钮进行验证

然后点击验证链接按钮进行验证截图

点击管理Ollama接口连接的设置按钮

点击管理Ollama接口连接的设置按钮的截图

点击左侧外部链接

点击左侧外部链接的示意图截图

点击面板上方的设置

点击管理员面板上方的设置截图

点击用户名->管理员面板,打开

点击用户名,弹出有管理员面板的菜单栏截图

3.3 对话功能

在输入框中,我们就能像chatGPT一样跟模型进行对话了, markdown渲染,思考过程折叠,代码高亮,流式输出功能都是具备的。

与 Qwen 模型对话的截图,展示 Markdown 渲染效果

3.4 进阶使用

除了最简单的对话功能,Open WebUI还能做什么?我们重点介绍一下最实用,最具“生产力”的两个功能

功能一:本地知识库(RAG)

RAG,全程是Retrieval Augmented Generation,检索增强生成。翻译成人大白话,检索,即我们给训练好了的模型一些文本,它将其作为上下文,去文本中检索问题相关的内容;增强,增强的意义在于,我们不用重新训练模型,没有任何模型会在该技术中被训练,通过改变交给模型的知识库,模型可以得到更贴合我们需要的内容,比如产品的使用说明,一本故事书,最新的项目文档;生成,意味着当前输出还是由模型生成而来,还是运用模型本身对世界的理解能力。总而言之,RAG可以让模型成为我们量身定做的私人管家,自己的私人本地知识库。

在Open WebUI中,我们不用写一行代码,就可以实现这样便利的技术。
实操步骤

提问: 针对文档问题,进行提问,例如:“介绍一下这本书”

RAG提问介绍一下这本书后的模型反馈截图

确认加载:文件上传后,显示在聊天框左上角

文件上传后,显示在聊天框左上角截图

上传文档:在聊天输入框左侧,点击 [+] 号(加号图标),选择 上传文件。上传一份 PDF 文档(例如一份产品说明书或论文)。

在聊天框点击加号图标选择上传文件的截图

OpenWebUI内置了一些轻量级的向量模型,来将我们的文档分块,转化为向量, 存入内置的向量数据库中。当咱们提问的时候,它会找到和我们问题向量(对,模型也会将我们的问题转为向量)相近的段落,然后将这些段落给模型当作上下文,模型再据此给我们答复。

功能二:给模型特定人设(System Prompts)

这个也比较好理解,我们和模型说的每句话,都是一句句prompt,但是prompt之间亦有差别,大致分为User Prompt和System Prompt,User Prompt就是我们跟模型说的每句话,System Prompt是提前告知模型的一些不能忘记的预设知识,比如告诉Qwen模型,它是阿里公司训练的,名叫Qwen的模型,还有类似模型身份认知的东西,默认一般都是类似于“你是一个能够帮助人们回答问题的助手”。

所以,这个模型的人设,也是可以改的,我们下面以哲学家苏格拉底为人设试试。

实操步骤

  1. 模型名称处给模型一个我们喜欢的模型
  2. 模型ID处填写一个id号
  3. 基础模型处选择我们已有的模型(目前0.6B的模型如果不够聪明,可以去ollama拉去更聪明的模型)
  4. 系统提示词处填入我们准备的人设 “你是一位古希腊哲学家苏格拉底。你从不直接回答问题,而是通过反问来引导用户思考。”,咱也可以自由发挥,再加一些补充。

回到主页,我们就可以选择新的这个派生模型进行问答了

创建好新的模型后的新聊天窗口截图

保存并创建

创建完模型后的截图

在模型界面选择右上角的创建模型。当然我们这里并不是真的要创建一个模型,而是从现在的模型上派生出一个配置不一样的模型.

右上角的创建模型位置截图

点击左侧侧边栏的 工作空间

左侧工作空间截图

OpenWebUI实际上是还可以接入联网搜索能力的,但是取决于模型本身的工具调用能力(function call能力)是否足够强大,如果我们用了更聪明的模型,可以开启该功能

04. 题外话

OpenWebUI其实还有很多其他功能,比如真正的创建一个知识库,而不是简单的读文档,甚至可以直接通过语音进行对话,进行长期记忆,接入更多有趣的工具(mcp)等等,但是此处篇幅有限,各位友人可以自行探索。

05. 常见问题 (Q&A)

这里整理了一些在操作过程中可能会关心的问题:

Q: Open WebUI 只能连本地的 Ollama 吗?
A:不是的
。它是一个通用的前端界面,兼容性极强。

  • 本地模型:Ollama, LocalAI 等。
  • 在线 API:只要咱们有 OpenAI、Google Gemini、DeepSeek、Moonshot (Kimi) 等平台的 API Key,都可以在 设置 -> 外部连接 里填入,直接在一个界面里管理所有模型,不用到处切网页了。

Q: 我能在手机/平板上使用这个界面吗?
A:完全可以!
只要咱们的手机和运行 Open WebUI 的电脑在同一个 Wi-Fi (局域网) 下。

  1. 查询电脑的局域网 IP(Windows 在终端输 ipconfig,查看 IPv4 地址,比如 192.168.1.5)。
  2. 在手机浏览器输入 http://192.168.1.5:3000
  3. 现在的 Open WebUI 完美适配移动端,体验和原生 App 差不多!

Q: Open WebUI 发布新版本了,我该怎么更新?
A:
因为咱们是用 Docker 部署的,更新非常简单,只需要重跑一遍镜像:

  1. 停止并删除旧容器:docker rm -f open-webui (放心,数据在 Volume 里,不会丢)。
  2. 拉取最新镜像:docker pull ghcr.io/open-webui/open-webui:main
  3. 重新运行咱们文章里的那条 Docker 启动命令即可。

Q: 我上传的文档(RAG)安全吗?会被上传到云端吗?
A:绝对安全

咱们搭建的是全私有化环境。Open WebUI 会调用本地的嵌入模型(Embedding Model)处理文档,所有数据都存储在咱们电脑本地的 Docker 卷中,不会经过任何外部服务器。

Q: 为什么我的文档上传后,模型回答还是很慢?
A:
这通常取决于两点:

  1. 文档解析:首次上传大文档时,系统需要时间将其切分并存入向量数据库。
  2. 模型性能:如果咱们的电脑配置较低(没有独立显卡),模型读取上下文的速度会变慢。建议在上传文档时,尽量上传纯文本或清晰的 PDF,避免全是图片的扫描件。

Q: 我在 Docker 命令里设置了端口,为什么访问不了?
A:

  • 请检查 Windows 防火墙是否拦截了 3000 端口。
  • 确保 Docker Desktop 是运行状态(Status: Up)。
  • 如果是云服务器,记得在安全组里放行 3000 端口。

本文作者: Algieba
本文链接:https://blog.algieba12.cn/llm02-start-with-open-webui/
版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!

Read more

深度解析英伟达最新“瓦力”机器人:物理AI时代的开发者红利与技术突破

深度解析英伟达最新“瓦力”机器人:物理AI时代的开发者红利与技术突破

2026年CES展会上,黄仁勋牵着那款酷似《机器人总动员》“瓦力”的Reachy Mini机器人完成流畅互动时,全场的欢呼不仅是对萌系设计的认可,更是对一个新时代的致敬——英伟达用这套全新机器人系统,正式宣告物理AI从实验室走向产业化。对于咱们ZEEKLOG的开发者而言,这波技术浪潮带来的不只是视觉震撼,更是可落地的开发工具、开源生态和商业机遇。今天就从技术内核、开发价值、行业对比三个维度,深度拆解英伟达最新机器人的核心竞争力,帮大家找准入局切入点。 一、不止“萌出圈”:英伟达新机器人的技术内核拆解 很多人被“瓦力”的外形圈粉,但真正让行业震动的是其背后的全栈技术体系。不同于传统机器人“硬件堆砌+单一功能编程”的模式,英伟达这套系统是“大脑-身体-训练场”的全链路协同,每一个环节都为开发者预留了创新空间。 1. 核心大脑:GR00T N1.6模型的双系统突破 作为全球首个开源人形机器人基础模型,最新的Isaac GR00T N1.6堪称“机器人界的GPT-4o”,其最核心的创新是双系统架构设计,完美复刻了人类“本能反应+深度思考”

积木报表快速入门指南:零基础轻松上手数据可视化【低代码报表设计器】

积木报表快速入门指南:零基础轻松上手数据可视化【低代码报表设计器】

文章目录 * 前言 * 一、积木报表简介 * 二、环境准备 * 1. 下载积木报表 * 2. 运行环境要求 * 3. 快速启动(以Docker方式为例) * 三、第一个报表创建实战 * 1. 登录系统 * 2. 选择数据源 * 3. 设计报表 * 四、进阶功能快速上手 * 1. 图表集成 * 2. 参数传递 * 3. 分组与汇总 * 4. 导出与打印 * 五、实用技巧与最佳实践 * 1. 性能优化: * 2. 模板复用: * 3. 移动端适配: * 4. 定时任务: * 六、常见问题解答 * Q1:积木报表支持哪些数据库? * Q2:如何实现复杂的中国式报表? * Q3:能否集成到自己的系统中? * Q4:

OpenDroneMap (ODM) 无人机影像三维模型重建安装及使用快速上手

OpenDroneMap (ODM) 无人机影像三维模型重建安装及使用快速上手

1 文档概述 本文档是指导用户从零开始,使用 OpenDroneMap 对无人机采集的影像数据进行处理,生成三维点云、数字表面模型(DSM)、正射影像图(Orthomosaic)等成果。 本文档的预期读者为拥有无人机航拍影像(JPG/PNG格式)并希望进行三维建模的用户。 2.1 系统运行环境要求 - 操作系统:Windows 10/11, macOS, 或 Linux (推荐 Ubuntu)。 - CPU:多核心处理器(4核以上推荐,8核或更多更佳)(处理200张以上影像建议16GB+)。 - 内存 (RAM):至少 16GB,处理大面积区域建议 32GB 或以上。 - 硬盘空间:预留充足的存储空间。原始影像、中间文件和最终成果会占用大量空间。建议准备 影像大小的10-20倍

Flutter 组件 bip340 适配鸿蒙 HarmonyOS 实战:次世代 Schnorr 签名,为鸿蒙 Web3 与隐私计算筑牢加密防线

Flutter 组件 bip340 适配鸿蒙 HarmonyOS 实战:次世代 Schnorr 签名,为鸿蒙 Web3 与隐私计算筑牢加密防线

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 bip340 适配鸿蒙 HarmonyOS 实战:次世代 Schnorr 签名,为鸿蒙 Web3 与隐私计算筑牢加密防线 前言 在鸿蒙(OpenHarmony)生态迈向去中心化金融(DeFi)、隐私通讯及安全资产管理等高阶安全场景的背景下,如何实现更高性能、更具扩展性且抗攻击能力的数字签名架构,已成为决定应用闭环安全性的“压舱石”。在鸿蒙设备这类强调分布式鉴权与芯片级安全(TEE/SE)的移动终端上,如果依然沿用传统的 ECDSA 签名算法,由于由于其固有的可延展性风险与高昂的聚合验证成本,极易由于由于在大规模节点验证时的 CPU 负载过高导致交互滞后。 我们需要一种能够实现签名线性聚合、计算逻辑极简且具备原生抗延展性的密码学方案。 bip340 为 Flutter 开发者引入了比特币 Taproot 升级的核心——Schnorr 签名算法。它不仅在安全性上超越了传统标准,更通过其线性的数学特性,