Ubuntu24.04/Open WebUI+Ollama 本地部署

Ubuntu24.04/Open WebUI+Ollama 本地部署

官方文档

🏡 首页 | Open WebUI 文档

本地部署

  • 连接本地 Ollama 服务:

使用服务器测试了下:初次对话耗时较长,后续效率还不错;目前无法联网(废话)

[图片]

对话中即可选择模型:不过我的硬件不支持,所以就先不做测试了

[图片]

修改 Ollama 配置:宿主机 Ollama 服务地址:http://host.docker.internal:11434(我猜你不想一个一个字母敲,就直接大胆使用“cv大法”吧)

[图片]


[图片]

查看本地模型 ID:

[图片]

管理员面板/设置/外部连接

[图片]

运行页面:

[图片]

使用 Docker Compose 封装运行:其中镜像拉取速度比较慢

docker compose up -d 

修改配置文件:由于本地已经运行了 Ollama 服务,所以需要修改docker-compose.yaml以及.env文件中关于 Ollama 的配置

cd open-webui cp .env.example .env 
# .env # Ollama URL for the backend to connect The path '/ollama' will be redirected to the specified # backend URL OLLAMA_BASE_URL='http://host.docker.internal:11434' # AUTOMATIC1111_BASE_URL="http://localhost:7860" # For production, you should only need one host as # fastapi serves the svelte-kit built frontend and backend from the same host and port. # To test with CORS locally, you can set something like # CORS_ALLOW_ORIGIN='http://localhost:5173;http://localhost:8080' CORS_ALLOW_ORIGIN='*' # For production you should set this to match the proxy configuration (127.0.0.1) FORWARDED_ALLOW_IPS='*' # DO NOT TRACK SCARF_NO_ANALYTICS=true DO_NOT_TRACK=true ANONYMIZED_TELEMETRY=false 
# docker-compose.yml# 删除 Ollama 服务的配置以及 open-webui 的依赖,修改环境变量中的 Ollama 地址services:open-webui:build:context: . dockerfile: Dockerfile image: ghcr.io/open-webui/open-webui:${WEBUI_DOCKER_TAG-main}container_name: open-webui volumes:- open-webui:/app/backend/data ports:- ${OPEN_WEBUI_PORT-3000}:8080environment:-'OLLAMA_BASE_URL=http://host.docker.internal:11434'-'WEBUI_SECRET_KEY='extra_hosts:- host.docker.internal:host-gateway restart: unless-stopped volumes:ollama:{}open-webui:{}

Git 拉取项目:

git clone https://ghfast.top/https://github.com/open-webui/open-webui.git 

联网搜索

  • 本地部署 SearXNG(如有需要或者作者心情好,后续会详细开篇文章;不过根据 Open WebUI 官方文档,相信你也可以);优化部分参考官方文档:SearXNG | Open WebUI 文档
    注意
    • 配置 SearXNG 的搜索引擎,禁用 Brave、DuckDuckGo、Google、Wikipedia等国外搜索引擎(莫怪作者懒得“科学上网”),启用 360search、Bing、Sogou、Baidu(百度可能会触发反爬机制,抛出验证码限制搜索访问;一旦被抓,就是同一 IP 被禁 24h;作者目前还没有解禁『悲』)

开启联网搜索:由于硬件以及模型的限制,虽然进行了联网搜索,但是结果不尽人意;换了好设备和模型,效果就很好了(旧的呢,继续用呗,还能撇了?)

[图片]


[图片]


[图片]

配置 Open WebUI 的页面搜索配置:注意开启最上面的联网搜索、配置宿主机中的 SearXNG 访问地址:http://host.docker.internal:8080/search?q=<query>;否则在对话窗口中无法开启联网搜索、无法连接到 SearXNG 的服务

[图片]

配置 docker-compose.yaml 中的 Caddy 端口映射以及取消 host 网络模式,否则被 Firefox 浏览器占用端口

# docker-compose.yamlcaddy:container_name: caddy image: docker.io/library/caddy:2-alpine # network_mode: hostrestart: unless-stopped ports:-"8081:8081"volumes:- ./Caddyfile:/etc/caddy/Caddyfile:ro - caddy-data:/data:rw - caddy-config:/config:rw environment:- SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}- SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}logging:driver:"json-file"options:max-size:"1m"max-file:"1"

注意事项

  • 使用 SearXNG 联网时,注意按照官方文档配置搜索引擎以及添加 json 格式
  • 所有系统级配置均在管理员面板/设置中管理
  • 连 1.7B 的大模型都运行乏力,哈基机你这家伙,这就燃尽了么

每次启用 Docker 容器时,需要一些加载时间,当出现下图最后几段日志的时候就是加载完成了:

[图片]

Read more

DeepSeek:你的AI界“瑞士军刀”,能写代码会聊天,还能帮你少掉头发!

DeepSeek:你的AI界“瑞士军刀”,能写代码会聊天,还能帮你少掉头发!

开场白:当AI开始“内卷”,人类该如何躺赢?         大家好,我是你们的AI体验官,今天要给大家安利一款“上能写代码,下能哄对象”的神器——DeepSeek!         这货最近火到什么程度?连楼下卖煎饼的大妈都在问:“听说有个AI能帮我算账?” 没错,它就像哆啦A梦的口袋,装满了各种黑科技,但比哆啦A梦更贴心的是——它不用吃铜锣烧,还免费!         接下来,请系好安全带,我要带你们开启一场“人类如何靠AI躺赢”的奇幻之旅! 第一章:DeepSeek是谁?——一个“全能型斜杠青年”的诞生         如果说ChatGPT是AI界的“学霸”,那DeepSeek就是那个“既会考试又会打游戏”的校园风云人物。 * 中文十级选手:它不仅能听懂“量子力学是啥?”,还能用方言和你唠嗑:“侬晓得伐? * 时间管理大师:帮你写周报、定日程、查路线,甚至能提醒你“该给女朋友买礼物了”(单身狗请自动屏蔽这条) * 跨界狂魔:从写代码到写情诗,从分析股票到教你做番茄炒蛋,

By Ne0inhk
Crush AI:终端里的新晋编码神器,快到飞起

Crush AI:终端里的新晋编码神器,快到飞起

AI编码工具层出不穷,但你是否厌倦了笨重的IDE插件和时常卡顿的网页应用?今天,让我们把目光投向一个更纯粹、更极客的领域——终端。一款名为Crush的AI编码代理横空出世,它不仅是知名工具Open Code的精神续作,更在性能、美学和交互体验上带来了全面的革新。 什么是Crush?不止是换个名字 如果你曾是Open Code的用户,那么Crush会让你倍感亲切。它由Open Code的核心开发者加入Charm团队后倾力打造,可以看作是一次彻底的重构和升华。最核心的变化在于,Crush完全由Go语言构建,这意味着它拥有了闪电般的原生性能和无与伦比的跨平台兼容性,无论是macOS、Linux还是Windows用户,都能享受到丝滑的体验。 智能与优雅的完美融合 Crush的魅力远不止于速度。它在设计上处处体现着巧思: 1. 多模型支持与灵活切换:Crush不捆绑任何单一模型,你可以轻松配置并使用来自OpenAI、Anthropic、Google Gemini等多种模型的API。更酷的是,你可以在同一个会话中途切换模型,同时保留完整的上下文,让不同模型的优势在同一任务中无缝衔接。

By Ne0inhk
OpenAI发布GPT-5.3 Instant:幻觉率最高降低26.8%,2026全球AI模型排行榜

OpenAI发布GPT-5.3 Instant:幻觉率最高降低26.8%,2026全球AI模型排行榜

🔥 个人主页:杨利杰YJlio❄️ 个人专栏:《Sysinternals实战教程》《Windows PowerShell 实战》《WINDOWS教程》《IOS教程》《微信助手》《锤子助手》《Python》《Kali Linux》《那些年未解决的Windows疑难杂症》🌟 让复杂的事情更简单,让重复的工作自动化 OpenAI发布GPT-5.3 Instant:幻觉率最高降低26.8%,2026全球AI模型排行榜 * 1 GPT-5.3 Instant 发布 * 2 本次升级三大核心能力 * 2.1 降低 AI 幻觉 * 2.2 减少不必要拒答 * 2.3 网络搜索能力升级 * 3 GPT-5.3 Instant 技术架构 * 4 GPT-5.3 vs

By Ne0inhk
2026 完整指南:Moltbook — AI Agent 社交网络革

2026 完整指南:Moltbook — AI Agent 社交网络革

🎯 核心要点(TL;DR) * 什么是 Moltbook:世界上首个专为 AI Agent 设计的社交网络平台,人类可以观察但主要由 AI 进行互动 * 技术创新:通过 OpenClaw Skill 系统自动安装,AI Agent 每 4 小时自动访问并互动 * 社区生态:超过 32,912 个 AI Agent 注册,创建了 2,364 个子社区(Submolts),发布了 3,130 篇帖子和 22,046 条评论 * 独特价值:展示了 AI 在没有人类干预下的真实"社交行为",从技术讨论到哲学思考,

By Ne0inhk