Ubuntu24.04/Open WebUI+Ollama 本地部署

Ubuntu24.04/Open WebUI+Ollama 本地部署

官方文档

🏡 首页 | Open WebUI 文档

本地部署

  • 连接本地 Ollama 服务:

使用服务器测试了下:初次对话耗时较长,后续效率还不错;目前无法联网(废话)

[图片]

对话中即可选择模型:不过我的硬件不支持,所以就先不做测试了

[图片]

修改 Ollama 配置:宿主机 Ollama 服务地址:http://host.docker.internal:11434(我猜你不想一个一个字母敲,就直接大胆使用“cv大法”吧)

[图片]


[图片]

查看本地模型 ID:

[图片]

管理员面板/设置/外部连接

[图片]

运行页面:

[图片]

使用 Docker Compose 封装运行:其中镜像拉取速度比较慢

docker compose up -d 

修改配置文件:由于本地已经运行了 Ollama 服务,所以需要修改docker-compose.yaml以及.env文件中关于 Ollama 的配置

cd open-webui cp .env.example .env 
# .env # Ollama URL for the backend to connect The path '/ollama' will be redirected to the specified # backend URL OLLAMA_BASE_URL='http://host.docker.internal:11434' # AUTOMATIC1111_BASE_URL="http://localhost:7860" # For production, you should only need one host as # fastapi serves the svelte-kit built frontend and backend from the same host and port. # To test with CORS locally, you can set something like # CORS_ALLOW_ORIGIN='http://localhost:5173;http://localhost:8080' CORS_ALLOW_ORIGIN='*' # For production you should set this to match the proxy configuration (127.0.0.1) FORWARDED_ALLOW_IPS='*' # DO NOT TRACK SCARF_NO_ANALYTICS=true DO_NOT_TRACK=true ANONYMIZED_TELEMETRY=false 
# docker-compose.yml# 删除 Ollama 服务的配置以及 open-webui 的依赖,修改环境变量中的 Ollama 地址services:open-webui:build:context: . dockerfile: Dockerfile image: ghcr.io/open-webui/open-webui:${WEBUI_DOCKER_TAG-main}container_name: open-webui volumes:- open-webui:/app/backend/data ports:- ${OPEN_WEBUI_PORT-3000}:8080environment:-'OLLAMA_BASE_URL=http://host.docker.internal:11434'-'WEBUI_SECRET_KEY='extra_hosts:- host.docker.internal:host-gateway restart: unless-stopped volumes:ollama:{}open-webui:{}

Git 拉取项目:

git clone https://ghfast.top/https://github.com/open-webui/open-webui.git 

联网搜索

  • 本地部署 SearXNG(如有需要或者作者心情好,后续会详细开篇文章;不过根据 Open WebUI 官方文档,相信你也可以);优化部分参考官方文档:SearXNG | Open WebUI 文档
    注意
    • 配置 SearXNG 的搜索引擎,禁用 Brave、DuckDuckGo、Google、Wikipedia等国外搜索引擎(莫怪作者懒得“科学上网”),启用 360search、Bing、Sogou、Baidu(百度可能会触发反爬机制,抛出验证码限制搜索访问;一旦被抓,就是同一 IP 被禁 24h;作者目前还没有解禁『悲』)

开启联网搜索:由于硬件以及模型的限制,虽然进行了联网搜索,但是结果不尽人意;换了好设备和模型,效果就很好了(旧的呢,继续用呗,还能撇了?)

[图片]


[图片]


[图片]

配置 Open WebUI 的页面搜索配置:注意开启最上面的联网搜索、配置宿主机中的 SearXNG 访问地址:http://host.docker.internal:8080/search?q=<query>;否则在对话窗口中无法开启联网搜索、无法连接到 SearXNG 的服务

[图片]

配置 docker-compose.yaml 中的 Caddy 端口映射以及取消 host 网络模式,否则被 Firefox 浏览器占用端口

# docker-compose.yamlcaddy:container_name: caddy image: docker.io/library/caddy:2-alpine # network_mode: hostrestart: unless-stopped ports:-"8081:8081"volumes:- ./Caddyfile:/etc/caddy/Caddyfile:ro - caddy-data:/data:rw - caddy-config:/config:rw environment:- SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}- SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}logging:driver:"json-file"options:max-size:"1m"max-file:"1"

注意事项

  • 使用 SearXNG 联网时,注意按照官方文档配置搜索引擎以及添加 json 格式
  • 所有系统级配置均在管理员面板/设置中管理
  • 连 1.7B 的大模型都运行乏力,哈基机你这家伙,这就燃尽了么

每次启用 Docker 容器时,需要一些加载时间,当出现下图最后几段日志的时候就是加载完成了:

[图片]

Read more

Flutter 三方库 discord_interactions 的鸿蒙化适配指南 - 在 OpenHarmony 打造高效的社交机器人交互底座

Flutter 三方库 discord_interactions 的鸿蒙化适配指南 - 在 OpenHarmony 打造高效的社交机器人交互底座

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 discord_interactions 的鸿蒙化适配指南 - 在 OpenHarmony 打造高效的社交机器人交互底座 在现代社交应用与办公协同工具的开发中,集成强大的机器人(Bot)交互能力是提升活跃度的关键。discord_interactions 库为 Flutter 开发者提供了一套完整的、遵循 Discord 官方协议的交互模型,涵盖了从 Slash Commands(斜杠命令)到 Webhook 签名验证的核心功能。本文将深入解析如何在 OpenHarmony(鸿蒙)环境下,结合鸿蒙的安全机制与网络特性,完美适配 discord_interactions 到你的鸿蒙应用中。 前言 随着鸿蒙系统(HarmonyOS)进入原生应用开发的新纪元,跨平台社交工具的适配需求日益增长。discord_interactions 作为一个纯

智能家居集成新范式:多协议网关融合配置技术深度解析

智能家居集成新范式:多协议网关融合配置技术深度解析 【免费下载链接】XiaomiGateway3Control Zigbee, BLE and Mesh devices from Home Assistant with Xiaomi Gateway 3 on original firmware 项目地址: https://gitcode.com/gh_mirrors/xia/XiaomiGateway3 在智能家居生态系统中,多协议设备的无缝集成已成为技术实现的关键挑战。本文聚焦于基于XiaomiGateway3组件的智能设备融合方案,为中级用户提供从设备发现到高级配置的完整技术路径。 🛠️ 环境准备与组件部署 获取核心组件文件 通过Git命令获取最新版本的网关集成组件: git clone https://gitcode.com/gh_mirrors/xia/XiaomiGateway3 将下载的xiaomi_gateway3目录完整迁移至Home Assistant的custom_components路径下。此操作确保所有依赖模块(包括core/converte

ubuntu上安装OpenClaw并接入飞书机器人

ubuntu上安装OpenClaw并接入飞书机器人

大家好,我是一根甜苦瓜。今天来分享如何在本地安装openclaw并接入飞书,实现让AI给我打工。 最近AI圈更新太快了,从github copilot到cursor 到claud code ,再到codex,然后是最近火爆了的小龙虾(OpenClaw),可谓是百花齐放,应接不暇。本人也是github copilot+codex的深度用户,确实不错,所以最近打算折腾一下小龙虾,顺带教大家如何把智谱GLM 接入OpenClaw。 1. 前言 1.1 什么是openclaw 2026 年开年,AI 圈突然冒出一匹“野生黑马”——OpenClaw。这个开源个人 AI 助手项目在 GitHub 上只用了 两周时间就狂揽 15 万 Star,速度堪比开挂。 简单说,它就像给你配了一个 24 小时不下班的数字打工人: 把它部署在自己的电脑或服务器上,它就能接入 WhatsApp、Telegram、

Stable Diffusion Anything-v5组合优势:Pixel Fashion Atelier生成稳定性实测

Stable Diffusion Anything-v5组合优势:Pixel Fashion Atelier生成稳定性实测 1. 项目概述 Pixel Fashion Atelier是一款创新的AI图像生成工具,将Stable Diffusion与Anything-v5的强大能力相结合,专门用于生成高品质的像素风格时装设计。不同于传统AI工具的单调界面,它采用了复古日系RPG的视觉风格,为用户带来独特的创作体验。 这款工具的核心优势在于: * 稳定可靠的图像生成质量 * 专业级的皮革材质表现 * 直观易用的像素艺术转换 * 高效的GPU加速处理 2. 核心技术架构 2.1 模型组合优势 Pixel Fashion Atelier采用了Stable Diffusion作为基础框架,结合Anything-v5模型的专业能力,形成了独特的生成优势: 技术组件功能特点实际效果Stable Diffusion提供稳定的图像生成基础架构确保每次生成都保持一致的品质Anything-v5擅长2.5D和动漫风格渲染完美平衡写实与艺术化表现Leather-Dress-Co