使用Docker安装Ollama及Open-WebUI完整教程

作者:吴业亮
博客:wuyeliang.blog.ZEEKLOG.net

一、Ollama 简介及工作原理

1. Ollama 简介及原理

  • 简介:Ollama 是一款轻量级、开源的大语言模型(LLM)运行工具,旨在简化本地部署和运行大语言模型的流程。它支持 Llama 3、Mistral、Gemini 等主流开源模型,用户无需复杂配置即可在本地设备(CPU 或 GPU)上快速启动模型,适用于开发测试、本地智能应用搭建等场景。
  • 工作原理
    • 采用模型封装机制,将大语言模型的运行环境、依赖库及推理逻辑打包为标准化格式,实现模型的一键下载、启动和版本管理。
    • 通过优化的推理引擎适配硬件架构,支持 CPU 基础运行和 GPU 加速(如 NVIDIA CUDA),减少资源占用并提升响应速度。
    • 提供简洁的 REST API 和命令行接口,降低开发者集成门槛,无需深入了解模型底层细节即可调用。
    • 支持容器化部署,确保跨环境一致性,避免依赖冲突问题。

2. Open-WebUI 简介及原理

  • 简介:Open-WebUI 是一款开源的可视化界面工具,专为 Ollama 设计,提供直观的交互界面用于管理和使用大语言模型。它支持模型切换、对话历史记录、参数调整等功能,让本地大语言模型的使用更便捷。
  • 工作原理
    • 作为前端交互层,通过 API 与 Ollama 后端通信,接收用户输入并将其转发给 Ollama 进行模型推理。
    • 解析 Ollama 返回的结果并以自然语言对话形式展示给用户,同时记录对话历史并支持上下文关联。
    • 提供模型管理功能,可直接在界面中下载、启动、停止 Ollama 支持的模型,简化模型运维流程。
    • 支持容器化部署,与 Ollama 容器通过网络互通,实现快速搭建完整的本地大语言模型交互系统。

二、安装Docker

1. 安装Docker依赖

apt-getinstall ca-certificates curl gnupg lsb-release 

2. 添加阿里云Docker软件源

curl -fsSL http://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg |sudo apt-key add - 

3. 配置系统软件源

编辑/etc/apt/sources.list文件,添加以下内容(清华大学Ubuntu镜像源):

# 默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释 deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal main restricted universe multiverse # deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal main restricted universe multiverse deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-updates main restricted universe multiverse # deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-updates main restricted universe multiverse deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-backports main restricted universe multiverse # deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-backports main restricted universe multiverse # 安全更新软件源 deb http://security.ubuntu.com/ubuntu/ focal-security main restricted universe multiverse # deb-src http://security.ubuntu.com/ubuntu/ focal-security main restricted universe multiverse # 预发布软件源,不建议启用 # deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-proposed main restricted universe multiverse # # deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-proposed main restricted universe multiverse 

4. 添加Docker软件源并更新密钥

add-apt-repository "deb [arch=amd64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys DDCAE044F796ECB0 

5. 安装Docker

apt-getinstall docker-ce docker-ce-cli containerd.io 

6. 验证Docker安装

docker -v 

7. 配置Docker国内镜像源

7.1 编辑配置文件/etc/docker/daemon.json
{"registry-mirrors":["https://docker.mirrors.ustc.edu.cn","https://hub-mirror.c.163.com","https://docker.m.daocloud.io","https://ghcr.io","https://mirror.baidubce.com","https://docker.nju.edu.cn"]}
7.2 重新加载并重启Docker
systemctl daemon-reload systemctl restart docker 

三、安装英伟达显卡驱动(GPU支持)

1. 配置存储库

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey |sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg 

2. 设置源

创建并编辑nvidia-container-toolkit.list文件:

# 内容如下 deb https://mirrors.ustc.edu.cn/libnvidia-container/stable/deb/$(ARCH) / deb https://mirrors.ustc.edu.cn/libnvidia-container/stable/ubuntu18.04/$(ARCH) / #deb https://mirrors.ustc.edu.cn/libnvidia-container/experimental/deb/$(ARCH) /#deb https://mirrors.ustc.edu.cn/libnvidia-container/experimental/ubuntu18.04/$(ARCH) /

3. 更新包列表

sudoapt-get update 

4. 安装NVIDIA Container Toolkit

apt-getinstall -y nvidia-container-toolkit 

5. 配置Docker以支持Nvidia驱动

nvidia-ctk runtime configure --runtime=docker 

6. 重启Docker服务

systemctl restart docker.service 

四、使用Docker安装Ollama

1. 拉取Ollama镜像

官方镜像:

docker pull ollama/ollama:latest 

国内镜像(推荐):

docker pull dhub.kubesre.xyz/ollama/ollama:latest 

2. 启动Ollama容器

docker run -d \ --gpus=all \ --restart=always \ -v /root/project/docker/ollama:/root/project/.ollama \ -p 11434:11434 \ --name ollama \ ollama/ollama 
说明:此配置会让Ollama将模型保持加载在内存(显存)中

五、使用Docker安装Open-WebUI

1. 安装Main版本

docker run -d \ -p 15027:8080 \ --gpus all \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.nju.edu.cn/open-webui/open-webui:main 

2. 安装CUDA版本(GPU加速)

docker run -d \ -p 15027:8080 \ --gpus all \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.nju.edu.cn/open-webui/open-webui:cuda 

3. 访问Open-WebUI

打开浏览器访问以下地址进行登录:

http://192.168.1.129:15027/auth 

Read more

腾讯云轻量服务器一键部署 OpenClaw:国内外模型秒切 + 企业微信7×24私人AI助理(保姆级)

腾讯云轻量服务器一键部署 OpenClaw:国内外模型秒切 + 企业微信7×24私人AI助理(保姆级)

2026年最火的开源AI Agent——OpenClaw(前身 Clawdbot / Moltbot),让你拥有一个真正能“动手”的7×24小时私人AI助理! 它不仅能聊天,还能帮你发邮件、管日程、整理文件、执行脚本、浏览网页……关键是数据全在你自己服务器上,隐私0泄露。 腾讯云轻量应用服务器(Lighthouse)已官方推出OpenClaw一键部署模板,新手5–10分钟就能跑起来,支持一键切换国内外大模型(Claude、Gemini、DeepSeek、通义千问、豆包等),再接入企业微信后,手机随时发指令,AI秒执行。 本次实测配置: * CPU:2核 * 内存:4GB * 系统盘:70GB SSD * 流量:600GB/月(带宽6Mbps) 性能够用,月均成本低至几块钱! * @我更多福利大放送 步骤1:购买并一键部署OpenClaw服务器(3–

By Ne0inhk
深入详解人工智能数学基础——概率论中的KL散度在变分自编码器中的应用

深入详解人工智能数学基础——概率论中的KL散度在变分自编码器中的应用

🧑 博主简介:ZEEKLOG博客专家、ZEEKLOG平台优质创作者,高级开发工程师,数学专业,10年以上C/C++, C#, Java等多种编程语言开发经验,拥有高级工程师证书;擅长C/C++、C#等开发语言,熟悉Java常用开发技术,能熟练应用常用数据库SQL server,Oracle,mysql,postgresql等进行开发应用,熟悉DICOM医学影像及DICOM协议,业余时间自学JavaScript,Vue,qt,python等,具备多种混合语言开发能力。撰写博客分享知识,致力于帮助编程爱好者共同进步。欢迎关注、交流及合作,提供技术支持与解决方案。 技术合作请加本人wx(注明来自ZEEKLOG):xt20160813 深入详解人工智能数学基础——概率论中的KL散度在变分自编码器中的应用 在人工智能,尤其是深度学习领域,**变分自编码器(Variational Autoencoders, VAE)**因其出色的生成能力而备受关注。VAE的核心在于其对潜在变量分布的建模,而这一过程离不开概率论中的一个关键概念——Kullback-Leibler散度(KL散度)。本文将以浅

By Ne0inhk
AI测试:自动化测试框架、智能缺陷检测、A/B测试优化

AI测试:自动化测试框架、智能缺陷检测、A/B测试优化

1. 自动化测试框架 1.1 概述 基于AI的自动化测试框架通过机器学习和自然语言处理技术,实现了测试用例的自动生成、执行和优化,显著提升了测试效率和覆盖率。这类框架能够理解需求文档、识别UI元素、预测测试路径,并持续优化测试策略。 1.2 核心组件 1. 需求解析引擎:使用NLP技术分析需求文档 2. 测试用例生成器:基于需求自动生成测试用例 3. 智能执行引擎:动态调整测试执行顺序 4. 结果分析器:使用ML模型分析测试结果 5. 自优化模块:根据历史数据持续改进测试策略 1.3 代码实现 import numpy as np import pandas as pd from sklearn.feature_extraction.text import TfidfVectorizer from

By Ne0inhk

【AI实战】硅基流动:免费获取大模型API密钥全攻略(含DeepSeek)

1. 为什么你需要一个免费的大模型API密钥? 如果你刚开始接触AI,可能会觉得在网页上直接和ChatGPT或者DeepSeek聊天就足够了。确实,对于简单的问答、写个邮件、改个文案,网页版非常方便。但我想说的是,这就像你只用了智能手机的打电话功能,却错过了它拍照、导航、移动支付的巨大潜力。 我自己在写代码、处理文档、分析数据时,就经常遇到一些重复性的、需要“智力”辅助的工作。比如,我有200多份技术文档,需要快速提取核心观点并生成摘要;再比如,我想给我的小工具加一个智能客服功能,让它能自动回答用户关于产品使用的问题。这些场景,如果每次都手动打开网页、复制粘贴、等待回复,效率就太低了,而且根本无法集成到自动化流程里。 这时候,大模型的API(应用程序编程接口)就派上用场了。简单来说,API就是大模型厂商给你开的一个“后门”,让你可以用程序(比如Python脚本)直接和模型的大脑对话。你不再需要打开浏览器,只需要几行代码,就能把问题丢给AI,并把答案拿回来,无缝嵌入到你自己的软件、网站或者工作流中。这个过程的“

By Ne0inhk