概述
本教程介绍如何在 Windows、Mac 和 Linux 系统上通过 Ollama 工具本地运行大语言模型。无需编写代码或购买服务器,普通电脑即可满足基本需求。
一、前置准备:确认设备配置
开始前请检查设备是否满足最低要求:
- 硬件门槛:
- CPU:4 核及以上;
- 内存:8G 及以上(推荐 16G);
- 硬盘:至少 10G 空闲空间。
- 系统版本:
- Windows:Windows 10 或 Windows 11;
- Mac:macOS 11(Big Sur)及以上;
- Linux:Ubuntu 20.04+、CentOS 8+ 等主流发行版。
- 网络要求:需能正常访问外网以下载安装包和模型文件。
二、全平台 Ollama 安装
Ollama 是一款用于管理和运行大模型的开源工具。
2.1 Windows 系统安装
- 访问 Ollama 官方网站:ollama.com;
- 点击首页的 'Download for Windows' 按钮下载安装包;
- 双击打开安装包,全程点击 'Next',最后点击 'Install';
- 安装完成后点击 'Finish'。
【注意】建议重启终端或电脑以确保命令可用。
2.2 Mac 系统安装
- 访问 Ollama 官方网站:ollama.com;
- 点击首页的 'Download for macOS' 按钮下载 .pkg 文件;
- 双击打开 pkg 文件,点击 '继续' 和 '安装',输入密码确认;
- 等待安装完成。
【注意】Apple Silicon(M1/M2/M3)及 Intel 芯片均兼容。
2.3 Linux 系统安装(以 Ubuntu 为例)
- 打开终端(快捷键:Ctrl+Alt+T);
- 运行以下命令自动下载安装:
curl -fsSL https://ollama.com/install.sh | sh
看到 "Installation complete" 提示即表示安装成功。
三、快速部署与运行大模型
3.1 选择适合新手的模型
- 首选:
llama3.1:8b(Meta 官方出品,对话流畅); - 备选:
qwen2.5:7b(阿里通义千问,中文理解更好)。
3.2 拉取模型
在终端中复制并运行以下命令(以 llama3.1:8b 为例):
ollama pull llama3.1:8b
等待进度条走完即可。
3.3 运行模型并开始对话
模型下载完成后,运行以下命令:
ollama run llama3.1:8b


