基于 Docker 和 Ollama 部署 DeepSeek 本地大模型指南
1. 技术背景
1.1 Docker 简介
Docker 就像一个'打包好的 App',把你的软件、依赖、环境、系统配置等全部封装到一个'容器'里。别人拿到这个容器,就能直接运行,而不用关心它内部的细节。
传统部署中,程序需要不同的包装方式(运行环境),可能损坏或迁移困难。有了 Docker(容器部署),货物装进标准化集装箱,不管运到哪里,集装箱里东西不变,码头和船只可以直接装卸,轻松部署到不同系统。
1.2 Ollama 简介
Ollama 是一个本地运行大语言模型(LLM)的工具,它可以让你在自己的电脑上直接运行 AI 模型,而不需要连接云端服务器。
核心特点:
- 本地运行:不需要联网,所有计算都在你的电脑上完成。
- 支持多种开源模型:可以运行 Llama 3、Mistral、Gemma、Code Llama 等不同的大模型。
- 易于安装和使用:只需要几条命令,就能下载并运行 AI 模型。
- 轻量化优化:适配 Mac(Apple Silicon)、Linux 和 Windows,支持 GPU 加速。
- 离线推理:适合不想依赖 OpenAI API 或其他云端 AI 服务的用户。
2. 准备工作
2.1 操作系统
这里我们使用的操作系统为 CentOS 7.9,配置为 4 核 8G。大家也可以使用其他的 Linux 发行版本,或者使用 Windows。
2.2 镜像准备
如果已经安装了 Docker,可以提前准备好镜像 ollama/ollama。镜像比较大,拉取会耗一些时间。
3. 安装部署
3.1 安装 Docker
-
关闭防火墙
systemctl stop firewalld && systemctl disable firewalld -
关闭 SELinux
setenforce 0 -
更换 yum 源
rm -f /etc/yum.repos.d/* curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo yum clean all && yum makecache -
安装依赖项
yum install -y yum-utils device-mapper-persistent-data lvm2 -
添加 Docker 源
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -
安装 Docker
yum install docker-ce -y -
添加 Docker 镜像加速器 编辑配置文件 ,添加如下内容:


