Ubuntu 24.04 离线安装最新版 Ollama和导入模型的详细教程(附加速下载方案)

作者: L-sase
发布日期: 2025年09月09日
标签: Ollama, Ubuntu 24.04, 离线安装, Linux, 本地大模型, LLM, AI部署

前言

随着本地大语言模型(LLM)的兴起,Ollama 成为了在本地运行和管理 LLM(如 Llama 3、Qwen3、Deepseek 等)的热门工具。然而,Ollama 官方的Linux安装方法仅提供 在线一键安装脚本

curl -fsSL https://ollama.com/install.sh |sh

该方式在不适合在无网络环境网络受限/速度极慢 的服务器上使用,尤其是在国内访问时下载速度常常只有几 KB/s,甚至超时失败。

本文将详细介绍如何在 Ubuntu 24.04 系统上 离线安装最新版 Ollama和导入windows下载的模型,并提供 迅雷加速下载方案,帮助你在内网、隔离环境或低带宽场景下顺利完成部署。


一、问题背景

1. 官方安装方式的局限性

  • 依赖 curl 和外部网络。
  • 下载源位于海外,国内访问速度极慢。
  • 无法在离线服务器、内网环境或安全审计严格的系统中使用。

2. 目标环境

  • 操作系统:Ubuntu 24.04 LTS
  • 网络状态:完全离线(无互联网连接)
  • 目标软件:Ollama 最新版(ollama-linux-amd64

二、解决方案思路

  1. 在有网络的机器上通过第三方工具加速下载 Ollama 二进制包
  2. 将下载的压缩包通过 U盘/光盘/内网传输到目标 Ubuntu 服务器
  3. 手动解压并配置为系统服务(systemd),实现开机自启

三、详细操作步骤

步骤 1:获取 Ollama 离线安装包

Ollama 中文手册(非官方的手册,但信息与官方英文版一样)里面提供了直接下载链接:
👉 https://ollama.cadn.net.cn/linux.html

从中获取下载地址:

https://ollama.com/download/ollama-linux-amd64.tgz 
⚠️ 注意:该链接始终指向最新版本的 Linux AMD64 架构二进制包。

步骤 2:使用迅雷加速下载(推荐)

由于官方链接直连速度极慢,建议使用 迅雷 或其他支持多线程下载的工具进行加速:

  1. 打开迅雷客户端。

开始下载,通常可达到数 MB/s 的速度。

在这里插入图片描述

新建下载任务,粘贴链接:

https://ollama.com/download/ollama-linux-amd64.tgz 

下载完成后,文件名为 ollama-linux-amd64.tgz


步骤 3:将安装包传输到目标服务器

使用 U盘、光盘、内网文件共享等方式,将 ollama-linux-amd64.tgz 文件拷贝到目标 Ubuntu 24.04 服务器的 /opt 目录下:

# 假设文件已拷贝到 /optcd /opt ls -l # 输出应类似:# -rw-r--r-- 1 root root 123456789 Jan 1 00:00 ollama-linux-amd64.tgz

步骤 4:解压并安装 Ollama

将 Ollama 二进制文件解压到 /usr 目录(标准系统路径):

sudotar -C /usr -xzf ollama-linux-amd64.tgz 

验证是否安装成功:

/usr/bin/ollama -v # 正常输出类似:# ollama version is 0.11.4

此时你已经可以运行 ollama 命令,但建议配置为系统服务以便后台运行和开机自启。


步骤 5:创建 Ollama 用户和用户组

为安全起见,Ollama 应以专用用户身份运行,避免使用 root。

# 创建 ollama 用户和组sudouseradd -r -s /bin/false -U -m -d /usr/share/ollama ollama # 将当前用户加入 ollama 组(便于后续调用)sudousermod -a -G ollama $(whoami)
📌 说明:-r:创建系统用户-s /bin/false:禁止登录-U -m -d /usr/share/ollama:创建同名组并设置家目录

步骤 6:配置 systemd 服务

创建服务文件:

sudonano /etc/systemd/system/ollama.service 

粘贴以下内容:

[Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 Environment="PATH=$PATH" [Install] WantedBy=default.target 
✅ 关键参数说明:ExecStart:启动命令User/Group:以 ollama 用户运行Restart=always:崩溃后自动重启After=network-online.target:确保网络就绪后再启动

步骤 7:启动并启用 Ollama 服务

# 重载 systemd 配置sudo systemctl daemon-reload # 启用开机自启sudo systemctl enable ollama # 启动服务sudo systemctl start ollama # 查看服务状态sudo systemctl status ollama 

正常输出应包含:

● ollama.service - Ollama Service Loaded: loaded (/etc/systemd/system/ollama.service; enabled; vendor preset: enabled) Active: active (running) since ... 

步骤 8:验证 Ollama 是否正常运行

# 查看日志sudo journalctl -u ollama -f 

如果看到 ollama serve 启动成功日志,说明安装完成。


四、常见问题与解决方案

Q1:systemctl start ollama 失败,提示权限错误?

  • 检查/usr/bin/ollama 是否有执行权限

修复

sudochmod a+x /usr/bin/ollama 

Q2:日志中出现 cannot create directory /usr/share/ollama/.ollama

  • 原因:ollama 用户家目录权限问题

修复

sudochown -R ollama:ollama /usr/share/ollama sudochmod755 /usr/share/ollama 

Q3:离线环境如何下载模型?

  • 可在有网机器使用 ollama pull model-name 下载模型。
  • 导出模型的modelfile文件。

通过离线介质把模型和modelfile文件传输到ubuntu服务器同一个目录下后,使用命令把文件重命名为gemma3-12b.gguf

mv sha256-e8ad13eff07a78d89926e9e8b882317d082ef5bf9768ad7b50fcdbbcd63748de gemma3-12b.gguf` 

查看导出的modelfile文件,里面有示例gemma3:12b模型的路径和文件名称。

在这里插入图片描述

如笔者在个人windows主机下载模型后,使用下面命令:

ollama show gemma3:12b --modelfile >> modelfile 

  • 然后使用命令ollama create gemma3:12b -f modelfile导入模型

因为windows导出的modeflie文件中的路径是与Linux有区别,需要修改一下。

在这里插入图片描述

五、总结

本文提供了一套完整的 Ubuntu 24.04 离线安装 Ollama和导入模型 的解决方案,核心要点如下:

绕过官方在线脚本限制,实现离线部署
使用迅雷加速下载,解决国内网络慢问题
windows与linux的模型,两个系统下载的模型是可以互相导入的

该方法适用于所有无法联网的 Linux 服务器环境,特别适合企业内网、科研实验室、边缘计算等场景。


六、后续建议

  • 配置防火墙开放 11434 端口(Ollama API 端口),便于远程调用。
  • 使用 nginx 反向代理 + HTTPS 提升安全性。
  • 探索 Ollama + Open WebUI 搭建本地 AI 助手界面。

如果你觉得这篇教程有帮助,请点赞、收藏、分享!
欢迎在评论区交流你的部署经验或遇到的问题。

参考链接

Read more

【C++ 函数模板】—— 模板参数推导、实例化策略与编译优化

【C++ 函数模板】—— 模板参数推导、实例化策略与编译优化

欢迎来到ZyyOvO的博客✨,一个关于探索技术的角落,记录学习的点滴📖,分享实用的技巧🛠️,偶尔还有一些奇思妙想💡 本文由ZyyOvO原创✍️,感谢支持❤️!请尊重原创📩!欢迎评论区留言交流🌟 个人主页 👉 ZyyOvO 本文专栏➡️C++ 进阶之路 各位于晏,亦菲们请看 * 引言 * 函数模板的概念 * 函数模板的匹配原则 * 函数模板的底层原理 * 模板的编译阶段 * 模板实例化 * 编译器与链接器的协作 * 编译器的工作流程 * 前端编译阶段 * 模板实例化阶段 * 后端编译阶段 * 函数模板总结 * 写在最后 引言 点击快速复习 👉:【C++ 函数重载】—— 现代编译技术下的多态表达与性能优化 上篇文章我们讲到C++的函数重载,包括函数重载的条件,原理以及一些易错事项,那么本文我们为大家介绍C++中泛型编程的主要方式——模板。 在 C++ 中,模板(Template)是一种强大的编程特性,它允许程序员编写与类型无关的代码,实现代码的复用和泛型编程。 如同模具一样,

By Ne0inhk
基础算法:滑动窗口_python版本

基础算法:滑动窗口_python版本

能使用滑动窗口的题,基本都需要数字为正整数,这样才能保证滑入一个数字总和是增加的(单调性) 一、209. 长度最小的子数组 * 思路: 已每个位置为右端点,依次加大左端点,最短不满足 sum(num[left,right]) < target的。 * 代码: classSolution:defminSubArrayLen(self, target:int, nums: List[int])->int: n =len(nums) ans = n +1# 也可以写 inf s = left =0for right, x inenumerate(nums):# 枚举子数组右端点 s += x while s >

By Ne0inhk
纯C++手撸PP-OCRv5文字识别!不依赖OpenCV,从零到跑通全流程

纯C++手撸PP-OCRv5文字识别!不依赖OpenCV,从零到跑通全流程

纯C++手撸PaddleOCR PP-OCRv5文字识别!不依赖OpenCV,从零到跑通全流程 你是不是也遇到过这种情况:想在C++项目里加个OCR功能,结果光装OpenCV就折腾半天?今天教你零OpenCV依赖,用Paddle Inference + stb_image,纯C++实现PP-OCRv5文字识别全流程(检测+识别),代码可直接跑! 一、效果先行 cd /home/michah/桌面/paddle_inference && ./build/ocr_demo build/640.png --text-only cd /home/michah/桌面/paddle_inference && ./build/ocr_demo build/640.png

By Ne0inhk
【算法通关指南:数据结构和算法篇】别再用指针写链表了!数组模拟单 / 双向链表,C++ 实战超丝滑

【算法通关指南:数据结构和算法篇】别再用指针写链表了!数组模拟单 / 双向链表,C++ 实战超丝滑

🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人方向学习者 ❄️个人专栏:《算法通关指南》 ✨ 永远相信美好的事情即将发生 文章目录 * 前言 * 一、链表的概念 * 1.1 链表的定义 * 1.2 链表的分类 * 二、链表的模拟实现 * 2.1 单链表的模拟实现 * 2.1.1 定义-创建-初始化 * 2.1.2 头插 * 2.1.3 遍历链表 * 2.1.4 按值查找 * 策略一:遍历整个链表 * 策略二:使用哈希表优化 * 2.1.5 在任意位置之后插入元素 * 2.

By Ne0inhk