基于 Docker 和 Ollama 本地部署 DeepSeek 大模型
一、引言
1. 什么是 Docker
Docker 就像一个'打包好的 App'。想象一下,你写了一个很棒的程序,在自己的电脑上运行得很好。但当你把它发给别人,可能会遇到各种问题:
- '这个软件需要 Python 3.8,但我只有 Python 3.6!'
- '我没有你用的那个库,安装失败了!'
- '你的程序要跑在 Linux,我的电脑是 Windows!'
Docker 的作用:它把你的软件、依赖、环境、系统配置等全部封装到一个'容器'里,别人拿到这个容器,就能直接运行,而不用关心它内部的细节。
把 Docker 想象成'集装箱'
- 传统运输(传统部署):货物需要不同的包装方式,可能损坏,装卸麻烦。
- 有了 Docker(容器部署):货物装进标准化集装箱,不管运到哪里,集装箱里东西不变,码头和船只可以直接装卸。
Docker 让软件像'集装箱'一样标准化、可移植、易部署!

2. 什么是 Ollama
Ollama 是一个本地运行大语言模型(LLM)的工具,它可以让你在自己的电脑上直接运行 AI 模型,而不需要连接云端服务器。
简单来说:Ollama 让你像运行普通软件一样,轻松在本地使用 ChatGPT、Llama、Mistral、Gemma 等大语言模型。
核心特点
- 本地运行:不需要联网,也不用担心隐私问题,所有计算都在你的电脑上完成。
- 支持多种开源模型:可以运行 Llama 3、Mistral、Gemma、Code Llama 等不同的大模型。
- 易于安装和使用:只需要几条命令,就能下载并运行 AI 模型。
- 轻量化优化:适配 Mac(Apple Silicon)、Linux 和 Windows,支持 GPU 加速,让模型运行更快。
- 离线推理:适合不想依赖 OpenAI API 或其他云端 AI 服务的用户。

二、准备工作
1. 操作系统
这里我们使用的操作系统为 CentOS 7.9,配置为 4 核 8G,大家也可以使用其他的 Linux 发行版本,或者使用 Windows。
2. 镜像准备
如果已经安装了 Docker,可以提前准备好镜像 ollama/ollama,镜像比较大,拉取会耗一些时间。









