解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式

解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式

🐇明明跟你说过:个人主页

🏅个人专栏:《深度探秘:AI界的007》 🏅

🔖行路有良友,便是天堂🔖

目录

一、引言

1、什么是Docker

2、什么是Ollama

二、准备工作

1、操作系统

2、镜像准备

三、安装

1、安装Docker

2、启动Ollama

3、拉取Deepseek大模型

4、启动Deepseek 


一、引言

1、什么是Docker

Docker:就像一个“打包好的App”

想象一下,你写了一个很棒的程序,在自己的电脑上运行得很好。但当你把它发给别人,可能会遇到各种问题:

  • “这个软件需要 Python 3.8,但我只有 Python 3.6!”
  • “我没有你用的那个库,安装失败了!”
  • “你的程序要跑在 Linux,我的电脑是 Windows!”

💡 Docker 的作用:它就像一个“打包好的 App”,把你的软件、依赖、环境、系统配置等 全部封装到一个“容器” 里,别人拿到这个容器,就能直接运行,而不用关心它内部的细节。


🚀 把 Docker 想象成“集装箱”

传统运输 vs. 集装箱运输

以前(传统部署)

  • 货物(程序)需要不同的包装方式(运行环境)
  • 货物可能损坏(环境不兼容)
  • 装卸麻烦(程序迁移难)

有了 Docker(容器部署)

  • 货物装进标准化集装箱(Docker 容器)
  • 不管运到哪里,集装箱里东西不变(程序环境一致)
  • 码头和船只可以直接装卸(轻松部署到不同系统)

Docker 让软件像“集装箱”一样标准化、可移植、易部署! 🚢

2、什么是Ollama

Ollama 是一个本地运行大语言模型(LLM)的工具,它可以让你 在自己的电脑上直接运行 AI 模型,而不需要连接云端服务器。

💡 简单来说:Ollama 让你像运行普通软件一样,轻松在本地使用 ChatGPT、Llama、Mistral、Gemma 等大语言模型。

🚀 Ollama 的核心特点

  1. 本地运行 🏠
    • 你不需要联网,也不用担心隐私问题,所有计算都在你的电脑上完成。
  2. 支持多种开源模型 📚
    • 可以运行 Llama 3、Mistral、Gemma、Code Llama 等不同的大模型。
  3. 易于安装和使用 🔧
    • 只需要几条命令,就能下载并运行 AI 模型。
  4. 轻量化优化
    • 适配 Mac(Apple Silicon)、Linux 和 Windows,支持 GPU 加速,让模型运行更快。
  5. 离线推理 🔒
    • 适合不想依赖 OpenAI API 或其他云端 AI 服务的用户。

二、准备工作

1、操作系统

这里我们使用的操作系统为Centos 7.9,配置为4核8G,大家也可以使用其他的Linux发行版本,或者使用Windows。

2、镜像准备

如果已经安装了Docker,可以提前准备好镜像,ollama/ollama,镜像比较大,拉取会耗一些时间

三、安装

1、安装Docker

1.关闭防火墙

systemctl stop firewalld && systemctl disabled firewalld

2.关闭SELinux

setenforce 0

3.更换yum源

rm -f /etc/yum.repos.d/* curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo yum clean all && yum makecache

4.安装依赖项

yum install -y yum-utils device-mapper-persistent-data lvm2

5. 添加Docker源

yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

 6.安装Docker

yum install docker-ce -y

7.添加Docker镜像加速器

vim /etc/docker/daemon.json # 添加如下内容 { "registry-mirrors": [ "https://docker.m.daocloud.io", "https://noohub.ru", "https://huecker.io", "https://dockerhub.timeweb.cloud", "https://0c105db5188026850f80c001def654a0.mirror.swr.myhuaweicloud.com", "https://5tqw56kt.mirror.aliyuncs.com", "https://docker.1panel.live", "http://mirrors.ustc.edu.cn/", "http://mirror.azure.cn/", "https://hub.rat.dev/", "https://docker.ckyl.me/", "https://docker.chenby.cn", "https://docker.hpcloud.cloud", "https://docker.m.daocloud.io" ] }

8.启动Docker

systemctl start docker

2、启动Ollama

1.启动Ollama容器

docker run -itd -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
  • docker run    运行一个新的 Docker 容器
  • -itd    组合多个选项:
    •  ✅ -i(保持标准输入)
    •  ✅ -t(分配终端)
    •  ✅ -d(后台运行容器)
  • -v ollama:/root/.ollama    挂载数据卷,把 ollama 这个 Docker 数据卷 绑定到容器的 /root/.ollama 目录,确保数据持久化(如下载的模型不会丢失)。
  • -p 11434:11434    端口映射,把 宿主机(本机)的 11434 端口 映射到 容器 内部的 11434 端口,这样宿主机可以通过 http://localhost:11434 访问 Ollama 服务。
  • --name ollama    指定 容器名称 为 ollama,方便管理和启动。
  • ollama/ollama    使用的 Docker 镜像,这里是 官方的 Ollama 镜像。

如果是使用GPU运行,则用下面的命令启动

docker run -itd --name ollama --gpus=all -v ollama:/root/.ollama -p 11434:11434 ollama/ollama

 2.查看Ollama容器

docker ps

 

 

3、拉取Deepseek大模型

1.进入到容器中 

docker exec -it ollama /bin/bash

2.拉取模型

ollama pull deepseek-r1:7b

 

 

在官网中,有许多Deepseek的模型,这里主要是演示,所以拉取了一个较小的模型

官网地址:deepseek-r1

 

 

3.查看模型

ollama list

 

 

4、启动Deepseek 

ollama run deepseek-r1:7b

 

 

 💕💕💕每一次的分享都是一次成长的旅程,感谢您的陪伴和关注。希望这些文章能陪伴您走过技术的一段旅程,共同见证成长和进步!😺😺😺



🧨🧨🧨让我们一起在技术的海洋中探索前行,共同书写美好的未来!!!  

Read more

Flutter 组件 pos 适配鸿蒙 HarmonyOS 实战:ESC/POS 硬件协议通信,构建高性能零售收银与物联网打印架构

Flutter 组件 pos 适配鸿蒙 HarmonyOS 实战:ESC/POS 硬件协议通信,构建高性能零售收银与物联网打印架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 pos 适配鸿蒙 HarmonyOS 实战:ESC/POS 硬件协议通信,构建高性能零售收银与物联网打印架构 前言 在鸿蒙(OpenHarmony)生态迈向专业收银终端、涉及智慧零售设备、数字化仓储标签打印及餐饮自助化服务的背景下,如何实现与热敏打印机(Thermal Printer)等硬件设备的底噪、高可靠通讯,已成为决定商业应用“交易闭环效率”的关键。在鸿蒙设备这类强调硬件直控能力(Raw IO)与实时系统响应的环境下,如果应用依然依赖图形化的截屏打印或低效的中间件转发,由于由于图像编解码的巨大算力消耗,极易由于由于“内存瞬时溢出”导致收银终端在高峰期发生严重卡顿。 我们需要一种能够直接生成热敏指令流(Hex Commands)、支持多种传输通道(蓝牙/Wi-Fi/USB)且符合行业标准(ESC/POS)的高性能控制方案。 pos

By Ne0inhk
OpenClaw下载安装配置|Windows安装流程|macOS 安装流程|Telegram 集成使用|飞书集成使用|常见坑和注意事项保姆级教程

OpenClaw下载安装配置|Windows安装流程|macOS 安装流程|Telegram 集成使用|飞书集成使用|常见坑和注意事项保姆级教程

🦞 OpenClaw 保姆级部署教程:Windows/macOS 全平台安装 + Telegram/飞书双端集成实战 作者:猫头虎AI | 阅读时间:约 25 分钟 | 难度:⭐⭐⭐☆☆ 因为🦞实在太火了,加上看多了AI相关的东西搞得人很焦虑,所以还是打算自己部署一下找点自我安慰吧🤷。先不说我能用来干啥,就想探一探它这么火的原因😮‍💨 在Windows中折腾了一天,终于算是初步跑通了,并配置了 Telegram 和 飞书 两个 channel。本文将完整记录从环境准备到多平台集成的全流程,帮你避开我踩过的所有坑。 OpenClaw 是一个适用于任何操作系统的 AI 智能体 Gateway 网关,支持 WhatsApp、Telegram、Discord、飞书等多种聊天应用。 📋 阅读目录 * 🦞 OpenClaw 保姆级部署教程:Windows/macOS 全平台安装 + Telegram/飞书双端集成实战 * 安装前准备

By Ne0inhk
时序数据库 Apache IoTDB:从边缘到云端Apache IoTDB 全链路数据管理能力、部署流程与安全特性解读

时序数据库 Apache IoTDB:从边缘到云端Apache IoTDB 全链路数据管理能力、部署流程与安全特性解读

时序数据库 Apache IoTDB:从边缘到云端Apache IoTDB 全链路数据管理能力、部署流程与安全特性解读 前言 大数据与物联网技术飞速发展的今天,时序数据呈现出爆发式增长的态势,从工业传感器的实时监控数据到智能设备的运行日志,从金融交易的时序记录到新能源汽车的工况数据,时序数据已成为企业数字化转型的核心资产,选择一款合适的时序数据库,直接关系到数据存储效率、分析能力与业务价值挖掘。 本文将从时序数据库的核心需求出发,结合大数据场景特点,通过与国外主流产品的对比分析,重点阐述 Apache IoTDB 在选型中的核心优势。 Apache IoTDB 介绍 Apache IoTDB 是由中科院软件所主导研发的开源时序数据库,专为物联网与工业大数据场景设计,以高性能、轻量级、易扩展为核心特点,通过三层数据模型与多级存储引擎,实现对海量时序数据的高效存储、快速查询与全生命周期管理,已成为国产化时序数据管理的标杆产品 ✅极致的性能表现:采用 TsFile 存储结构与多维索引体系,单节点每秒可处理数百万数据点写入,复杂聚合查询响应达毫秒级,结合差值编码等压缩算法,数据压缩

By Ne0inhk
程序员必看!VSCode Remote+cpolar让Mac和Linux无缝协作,代码随身走

程序员必看!VSCode Remote+cpolar让Mac和Linux无缝协作,代码随身走

文章目录 * 前言 * 1.WSL 环境下网络诊断 * 2.安装cpolar实现随时随地开发 * 3.配置公网地址 * 4.VsCode 远程连接开发环境 * 5.保留固定TCP公网地址 * 总结 前言 作为全栈开发者,你是否受够了在公司MacBook和家里Windows PC间同步开发环境的痛苦?VSCode Remote-SSH插件彻底终结了这种折腾——只需一次配置,就能让本地编辑器直接访问远程服务器的文件系统和终端,无论是修改Node.js后端还是调试Python脚本,都像在本地操作般流畅。我司前端团队通过这种方式,成功实现设计师用MacBook编辑React组件,后端工程师用Linux工作站调试API,代码实时同步且环境完全一致。 最让我惊喜的是VSCode Remote的端口转发功能。上次开发微信小程序时,后端服务运行在阿里云服务器,通过Remote-SSH转发3000端口后,本地IDE直接访问localhost就能调试接口,省去了配置Nginx反向代理的麻烦。而WSL2环境下的Docker容器,更是可以通过这种方式暴露给局域网其他设备,实现"Wi

By Ne0inhk