为什么在 macOS 上部署 Open WebUI
如果你关注本地运行大模型,通常会接触到 Ollama。它支持在 Mac 上通过命令行启动 Llama、Mistral 等模型,但默认仅提供终端交互,体验较为原始。
Open WebUI 是为 Ollama 等本地模型引擎设计的网页前端。它提供类似 ChatGPT 的聊天界面,支持多轮对话、模型切换、历史管理及文件分析。所有数据保留在本地,兼顾安全与私密性。
本文将分享在 macOS 上通过 Docker 部署 Open WebUI 的方法,适合希望快速搭建本地 AI 环境的用户。
方法一:Docker 部署
安装 Docker Desktop
Docker 通过容器化技术将应用及其依赖打包为镜像。在 macOS 上运行 Open WebUI 无需配置复杂的 Node.js 或 Python 环境。
- 访问 Docker 官网下载页面。
- 选择适用于 Apple Silicon (M1/M2/M3) 或 Intel 芯片的版本下载。
- 双击
.dmg文件,将 Docker 图标拖入'应用程序'文件夹。 - 首次打开 Docker Desktop,允许必要的系统权限(如网络访问)。菜单栏出现鲸鱼图标即表示服务运行中。
- 打开终端输入
docker --version验证安装。
运行 Open WebUI 容器
Docker 安装完成后,可通过一条命令启动 Open WebUI。
docker run -d --name open-webui -p 3000:3000 -v open-webui-data:/app/data --pull always ghcr.io/open-webui/open-webui:main
参数说明:
docker run:运行容器。-d:后台运行模式。--name open-webui:指定容器名称。-p 3000:3000:端口映射,将容器 3000 端口映射至本机。-v open-webui-data:/app/data:数据卷挂载,持久化存储对话历史与设置。--pull always:确保每次启动时拉取最新镜像。

