不用魔法Ollama安装指南:2026年本地AI大模型部署完整教程

不用魔法Ollama安装指南:2026年本地AI大模型部署完整教程

摘要:本文详细介绍如何在无需特殊网络环境的情况下,通过Microsoft Store安装Ollama,结合阿里魔搭社区下载GGUF格式模型,完成本地AI大模型的完整部署。包含Modelfile配置详解、参数调优指南、常见问题解决方案及实战案例,适合AI初学者和开发者参考。

视频讲解:方案丨 Ollama 本地部署 Deepseek丨下载慢?丨创建新模型-哔哩哔哩

纯白话:
不用魔法Ollama安装指南
先在Microsoft Store安装Ollama,然后应用里打开联网,然后在阿里的魔搭社区找到要的模型,然后下载并放在以下文件一样的文件夹里,然后设置文件名。txt:
FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8 0.gguf (这个模型 要改成下载的)
PARAMETER temperature 0.7
PARAMETER top p 0.95
PARAMETER top_k 40
PARAMETER repeat penalty 1.1
PARAMETER min p 0.05
PARAMETER num ctx 1024
PARAMETER num thread 4
PARAMETER num_gpu 8
#设置对话终止符PARAMETER stop “<| begin_of_sentence |>”
PARAMETER stop “<| end_of_sentence |>”
PARAMETER stop “<| User |>”
PARAMETER stop"<| Assistant |>"
然后在这个文件夹终端运行ollama create 自定义名称 -f ./文件名
就没有用魔法也可以本地部署


前言:为什么需要本地部署AI大模型

1.1 云端AI服务的局限性

在2026年的今天,人工智能已经深度融入我们的工作和生活。从ChatGPT到Claude,从文心一言到通义千问,云端AI服务为我们提供了强大的智能辅助能力。然而,依赖云端服务也带来了一系列不可忽视的问题:

隐私安全担忧:当你使用云端AI服务时,所有的对话内容、上传的文档、输入的数据都需要传输到远程服务器。对于涉及商业机密、个人隐私或敏感信息的场景,这种数据传输存在潜在的安全风险。企业用户尤其担心数据泄露问题,许多行业(如医疗、金融、法律)对数据出境有严格的合规要求。

网络连接依赖:云端AI服务必须保持稳定的网络连接才能正常工作。在网络不稳定、带宽受限或完全离线的场景下(如飞机上、偏远地区、网络封锁环境),云端服务将无法使用。这对于需要随时随地的AI辅助的用户来说是一个重大限制。

使用成本问题:大多数云端AI服务采用按量计费或订阅制模式。对于高频使用者来说,长期使用成本可能相当可观。以某些主流AI服务为例,高级订阅每月费用可达数十美元,企业级API调用费用更是可能达到数千甚至上万美元。

响应延迟:云端服务需要将请求发送到远程服务器,处理后再返回结果。这个过程中涉及网络传输时间、服务器排队时间等,导致响应延迟。对于需要实时交互的应用场景,这种延迟可能影响用户体验。

服务可用性风险:云端服务可能因服务器故障、维护升级、政策变化等原因暂时或永久不可用。依赖单一云端服务的用户可能面临服务中断的风险。

1.2 本地部署的核心优势

相比之下,本地部署AI大模型具有显著优势:

数据完全可控:所有数据都在本地处理,不会上传到任何远程服务器。这对于隐私敏感的场景至关重要,用户可以完全掌控自己的数据。

离线可用:一旦模型部署完成,无需网络连接即可使用。这对于移动办公、出差旅行、网络受限环境非常实用。

零边际成本:除了初始硬件投入外,本地部署没有持续的使用费用。对于高频使用者来说,长期来看可能更经济。

低延迟响应:本地推理无需网络传输,响应速度主要取决于硬件性能,通常比云端服务更快。

定制化能力:本地部署允许用户根据具体需求调整模型参数、微调模型行为,甚至进行模型微调,实现高度定制化。

1.3 Ollama:让本地部署变得简单

在众多本地部署方案中,Ollama凭借其简洁的设计、易用的接口和丰富的模型支持,成为了最受欢迎的选择之一。Ollama的核心设计理念是"让任何人都能轻松运行大模型",它将复杂的模型加载、推理引擎、内存管理等技术细节封装起来,用户只需几条简单命令即可运行各种大语言模型。

Ollama支持的主流模型包括:

  • Llama系列:Meta开源的Llama 2、Llama 3、Llama 3.1、Llama 3.2等
  • Qwen系列:阿里巴巴通义千问系列模型
  • Mistral系列:Mistral AI开源模型
  • Gemma系列:Google开源模型
  • DeepSeek系列:深度求索开源模型
  • Phi系列:微软开源小型模型
  • 以及数百个社区贡献的模型

1.4 本教程的特色

本教程与其他Ollama安装指南的不同之处在于:

  1. 无需特殊网络环境:很多Ollama教程假设用户可以访问Ollama官方服务器直接拉取模型,但国内用户往往面临下载速度慢甚至无法连接的问题。本教程采用魔搭社区作为模型来源,完全规避这一问题。
  2. 完整配置详解:不仅介绍安装步骤,还深入讲解Modelfile的每个参数含义、调优方法、适用场景。
  3. 实战导向:包含多个实际应用场景案例,帮助用户快速将技术转化为生产力。
  4. 问题排查指南:汇总了常见错误及解决方案,节省用户排查时间。
  5. 2026年最新信息:基于最新版本的Ollama和模型生态,确保内容时效性。

Ollama是什么:本地大模型运行引擎详解

2.1 Ollama的技术架构

Ollama是一个开源的大语言模型本地运行框架,由Jeffrey Morgan于2023年创建。它的核心目标是将大模型的部署和使用简化到极致,让非专业用户也能轻松运行AI模型。

核心组件

  1. 推理引擎:Ollama底层基于llama.cpp项目,这是一个用C++编写的高效推理引擎,专门优化了GGUF格式模型的加载和推理。llama.cpp支持CPU和GPU加速,能够充分利用硬件资源。
  2. 模型管理系统:Ollama提供了一套完整的模型管理命令,包括拉取、列出、删除、导出、导入等操作。模型以统一的格式存储,便于版本管理和共享。
  3. API服务:Ollama运行时会启动一个本地HTTP服务(默认端口11434),提供RESTful API接口。这使得Ollama可以轻松集成到其他应用程序中。
  4. 命令行工具:Ollama提供了简洁的命令行界面,用户可以通过简单的命令与模型交互。
  5. Modelfile系统:这是Ollama的核心创新之一,类似于Docker的Dockerfile,允许用户定义自定义模型的配置、参数、系统提示等。

2.2 GGUF格式:模型存储的革命

要理解Ollama,必须先了解GGUF格式。GGUF(GPT-Generated Unified Format)是由llama.cpp项目定义的模型文件格式,是GGML格式的继任者。

GGUF的核心特点

  1. 量化支持:GGUF原生支持多种量化格式,包括Q4_K_M、Q5_K_M、Q8_0等。量化可以显著减小模型文件大小,降低内存占用,同时保持可接受的精度损失。
  2. 元数据嵌入:GGUF文件可以嵌入丰富的元数据,包括模型架构信息、tokenizer配置、训练参数等。这使得模型文件更加自包含。
  3. 快速加载:GGUF格式设计优化了模型加载速度,支持内存映射等技术,可以秒级加载大型模型。
  4. 跨平台兼容:GGUF格式在Windows、macOS、Linux上都有良好的支持,便于模型分发和共享。

量化等级说明

量化格式精度损失文件大小推理速度适用场景
Q8_0最小最大较慢追求最高精度
Q6_K很小较大中等平衡精度与性能
Q5_K_M中等较快日常使用推荐
Q4_K_M中等较小资源受限场景
Q4_0较大最小最快极端资源限制

2.3 Ollama与竞品对比

特性OllamaLM StudioText Generation WebUIvLLM
安装难度⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
命令行支持⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
GUI界面⭐⭐⭐⭐⭐⭐⭐⭐⭐
API支持⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
模型管理⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
自定义配置⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
社区生态⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐

Ollama在易用性和命令行体验方面具有明显优势,特别适合开发者和喜欢命令行操作的用户。

2.4 Ollama的生态系统

Ollama的成功不仅在于其本身,还在于其丰富的生态系统:

官方模型库:Ollama官方维护了一个模型库(ollama.com/library),包含数百个预配置好的模型,用户可以直接通过ollama pull命令下载。

第三方工具

  • Open WebUI:提供类似ChatGPT的Web界面
  • Continue:VS Code插件,用于代码辅助
  • LangChain:AI应用开发框架,支持Ollama作为后端
  • LlamaIndex:文档检索增强生成框架

社区贡献:GitHub上有数千个基于Ollama的开源项目,涵盖聊天机器人、文档问答、代码生成、数据分析等多个领域。


安装前准备:硬件要求与环境检查

3.1 硬件配置要求

Ollama的硬件需求主要取决于要运行的模型大小。以下是不同规模模型的推荐配置:

基础配置(运行7B以下模型)

  • CPU:Intel Core i5-12代或AMD Ryzen 5 5000系列及以上
  • 内存:16GB RAM(最低8GB)
  • 存储:50GB可用空间(SSD推荐)
  • GPU:可选,有GPU可显著提升推理速度

推荐配置(运行7B-14B模型)

  • CPU:Intel Core i7-12代或AMD Ryzen 7 5000系列及以上
  • 内存:32GB RAM
  • 存储:100GB可用空间(NVMe SSD推荐)
  • GPU:NVIDIA RTX 3060(12GB显存)或同等性能

高级配置(运行14B-70B模型)

  • CPU:Intel Core i9或AMD Ryzen 9系列
  • 内存:64GB RAM或更高
  • 存储:200GB+可用空间
  • GPU:NVIDIA RTX 4090(24GB显存)或多卡配置

显存需求参考

模型规模Q4量化Q5量化Q8量化FP16
1.5B~1GB~1.2GB~2GB~3GB
7B~4GB~5GB~8GB~14GB
14B~8GB~10GB~16GB~28GB
32B~18GB~22GB~36GB~64GB
70B~40GB~48GB~80GB~140GB

3.2 操作系统兼容性

Ollama支持以下操作系统:

Windows

  • Windows 10版本1903或更高
  • Windows 11(推荐)
  • 需要启用WSL2(可选,用于Linux兼容模式)

macOS

  • macOS 12.0(Monterey)或更高
  • Apple Silicon(M1/M2/M3)有原生优化
  • Intel Mac也可运行,但速度较慢

Linux

  • Ubuntu 20.04或更高(推荐)
  • Debian 11或更高
  • Fedora 38或更高
  • 其他主流发行版

3.3 环境检查清单

在安装前,请完成以下检查:

# 1. 检查可用磁盘空间# Windows: 打开"此电脑"查看各分区剩余空间# macOS/Linux: df -h# 2. 检查内存# Windows: 任务管理器 -> 性能 -> 内存# macOS: 关于本机 -> 内存# Linux: free -h# 3. 检查GPU(如有)# Windows: 设备管理器 -> 显示适配器# macOS: 关于本机 -> 系统报告 -> 图形/显示器# Linux: nvidia-smi(NVIDIA)或 glxinfo(AMD)# 4. 检查网络连接# 确保可以访问魔搭社区:https://modelscope.cn# 5. 关闭可能冲突的软件# 某些杀毒软件可能拦截Ollama的网络访问# 虚拟机软件可能占用虚拟化资源

3.4 必要软件准备

Windows用户

  1. 确保Windows Update已更新到最新版本
  2. 安装Microsoft Visual C++ Redistributable(通常系统已预装)
  3. 如有NVIDIA GPU,安装最新GPU驱动

macOS用户

  1. 确保系统已更新到最新版本
  2. 首次运行可能需要授予终端/命令行工具权限

Linux用户

  1. 确保已安装必要的依赖:
sudoapt update sudoaptinstallcurlgit

第一步:通过Microsoft Store安装Ollama

4.1 Microsoft Store安装优势

选择通过Microsoft Store安装Ollama有以下优势:

  1. 自动更新:Store会自动检测并安装Ollama的更新版本
  2. 安全验证:Store应用经过微软安全审核,降低恶意软件风险
  3. 简化安装:一键安装,无需手动配置环境变量
  4. 卸载方便:可通过系统设置轻松卸载

4.2 详细安装步骤

步骤1:打开Microsoft Store

在Windows任务栏搜索框中输入"Microsoft Store"或"Microsoft 商店",点击打开应用。

步骤2:搜索Ollama

在Store顶部的搜索框中输入"Ollama",按回车键搜索。

步骤3:选择正确的应用

搜索结果中应该能看到"Ollama"应用,确认发布者信息。点击应用图标进入详情页面。

步骤4:获取/安装

点击"获取"或"安装"按钮,等待下载和安装完成。安装时间取决于网络速度,通常几分钟内完成。

步骤5:启动Ollama

安装完成后,点击"启动"按钮,或在开始菜单中找到Ollama并打开。

步骤6:验证安装

打开命令提示符(CMD)或PowerShell,输入以下命令验证安装:

ollama --version 

如果安装成功,应该显示类似以下输出:

ollama version is 0.5.x 

4.3 首次运行配置

首次启动Ollama时,会自动完成以下配置:

  1. 创建数据目录:默认在C:\Users\用户名\.ollama
  2. 启动后台服务:Ollama会在后台运行一个服务进程
  3. 初始化API端口:默认监听11434端口

检查服务状态

# 检查Ollama服务是否运行 ollama list # 检查API端口是否监听 netstat -ano | findstr 11434 

4.4 配置数据存储位置(可选)

如果系统盘空间有限,可以更改Ollama的模型存储位置:

方法1:使用环境变量

  1. 右键点击"此电脑" -> “属性” -> “高级系统设置”
  2. 点击"环境变量"
  3. 在"用户变量"或"系统变量"中点击"新建"
  4. 变量名:OLLAMA_MODELS
  5. 变量值:D:\Ollama\Models(替换为你想要的路径)
  6. 重启Ollama服务

方法2:修改配置文件

在Ollama数据目录创建配置文件,指定存储路径。

4.5 防火墙配置

如果Ollama无法正常运行,可能需要配置防火墙:

  1. 打开"Windows Defender 防火墙"
  2. 点击"允许应用通过防火墙"
  3. 找到Ollama,确保"专用"和"公用"都勾选
  4. 或手动添加入站规则,允许11434端口

第二步:魔搭社区模型下载完整指南

5.1 为什么选择魔搭社区

魔搭社区(ModelScope)是阿里巴巴达摩院推出的模型开放平台,提供大量高质量的AI模型。选择魔搭社区下载Ollama模型的原因:

  1. 国内访问速度快:服务器位于国内,下载速度远超Ollama官方源
  2. 无需特殊网络:不需要任何网络代理即可访问
  3. 模型种类丰富:包含Qwen、DeepSeek、ChatGLM等热门模型
  4. GGUF格式支持:提供多种量化等级的GGUF格式模型
  5. 免费使用:模型下载完全免费

5.2 访问魔搭社区

步骤1:打开魔搭社区官网

在浏览器中访问:https://modelscope.cn

步骤2:注册/登录账号

首次使用需要注册账号,可以使用手机号、邮箱或第三方账号(如GitHub)登录。

步骤3:搜索GGUF模型

在搜索框中输入关键词,如:

  • “DeepSeek GGUF”
  • “Qwen GGUF”
  • “Llama GGUF”

或使用筛选功能:

  • 点击"模型"标签
  • 在"框架"筛选中选择"GGUF"

5.3 选择适合的模型

以DeepSeek-R1-Distill-Qwen系列为例:

模型命名解析

DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf │ │ │ │ │ │ │ │ │ │ │ └─ 量化格式 │ │ │ │ └─ 模型规模(1.5B参数) │ │ │ └─ 基础模型(Qwen) │ │ └─ 蒸馏版本 │ └─ 模型版本(R1推理优化版) └─ 发布方(深度求索) 

量化格式选择建议

场景推荐量化理由
日常对话Q4_K_M平衡速度与质量
代码生成Q5_K_M或Q6_K需要更高精度
专业写作Q6_K或Q8_0追求最佳输出质量
资源受限Q4_0最小内存占用
实验测试Q4_K_M快速迭代

模型规模选择建议

规模显存需求推理速度能力水平适用场景
1.5B-3B1-2GB极快基础简单任务、嵌入式
7B-8B4-6GB良好日常使用、开发测试
14B-15B8-12GB中等优秀专业应用、内容创作
32B+18GB+较慢卓越高精度需求、研究

5.4 下载模型文件

方法1:网页下载

  1. 进入模型详情页面
  2. 点击"文件"标签
  3. 找到需要的GGUF文件
  4. 点击下载按钮

方法2:使用Git命令

# 克隆模型仓库git clone https://www.modelscope.cn/组织名/模型名.git # 或使用modelscope CLI pip install modelscope modelscope download --model 组织名/模型名 

方法3:使用下载工具

对于大文件,建议使用支持断点续传的下载工具:

  • Internet Download Manager (IDM)
  • 迅雷
  • 浏览器自带下载管理器

5.5 模型文件存放位置

下载完成后,将GGUF文件放到Ollama的模型目录:

默认路径

C:\Users\你的用户名\.ollama\models\ 

建议目录结构

.ollama/ └── models/ └── custom/ ├── DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf └── modelfile.txt 

创建专门的子目录有助于管理多个自定义模型。

5.6 验证模型文件

下载完成后,建议验证文件完整性:

# 检查文件大小(与网页显示对比)dir DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf # 计算文件哈希(如网站提供) certutil -hashfile DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf SHA256 

第三步:Modelfile配置文件详解

6.1 Modelfile是什么

Modelfile是Ollama的核心配置机制,类似于Docker的Dockerfile。它定义了:

  • 基础模型来源
  • 推理参数配置
  • 系统提示词
  • 对话模板
  • 停止词设置

通过Modelfile,用户可以创建高度定制化的模型变体。

6.2 Modelfile基本语法

Modelfile采用简洁的指令式语法:

# 这是注释 INSTRUCTION 参数 # 指令不区分大小写,但建议统一使用大写 # 每行一条指令 # 多行内容使用引号包裹 

6.3 完整配置示例解析

根据用户提供的配置,我们来逐行解析:

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf PARAMETER temperature 0.7 PARAMETER top_p 0.95 PARAMETER top_k 40 PARAMETER repeat_penalty 1.1 PARAMETER min_p 0.05 PARAMETER num_ctx 1024 PARAMETER num_thread 4 PARAMETER num_gpu 8 PARAMETER stop "<|begin_of_sentence|>" PARAMETER stop "<|end_of_sentence|>" PARAMETER stop "<|User|>" PARAMETER stop "<|Assistant|>" 

6.4 FROM指令

语法FROM <模型路径或名称>

功能:指定基础模型来源

用法示例

# 从本地GGUF文件 FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf # 从Ollama官方库 FROM llama3.2 # 从已创建的自定义模型 FROM my-custom-model:latest 

路径说明

  • ./ 表示当前目录
  • 可以使用绝对路径:FROM D:\Models\model.gguf
  • 相对路径相对于Modelfile所在位置

6.5 PARAMETER指令详解

6.5.1 temperature(温度)

作用:控制生成文本的随机性和创造性

取值范围:0.0 - 2.0(通常0-1)

效果说明

  • 低温度(0.0-0.3):输出更确定、保守,适合事实性问答
  • 中温度(0.5-0.8):平衡创造性与准确性,适合日常对话
  • 高温度(0.9-1.5):输出更多样、创造性更强,适合创意写作

示例配置

# 保守模式 - 适合代码生成、事实问答 PARAMETER temperature 0.3 # 平衡模式 - 适合日常对话 PARAMETER temperature 0.7 # 创意模式 - 适合故事创作、头脑风暴 PARAMETER temperature 1.0 
6.5.2 top_p(核采样)

作用:限制采样时考虑的token范围,基于累积概率

取值范围:0.0 - 1.0

工作原理

  • 模型会按概率从高到低累加token概率
  • 当累积概率达到top_p值时,停止累加
  • 只从这些token中采样

示例配置

# 严格采样 - 输出更聚焦 PARAMETER top_p 0.8 # 标准采样 - 推荐默认值 PARAMETER top_p 0.95 # 宽松采样 - 更多样化 PARAMETER top_p 0.99 
6.5.3 top_k(Top-K采样)

作用:限制采样时只考虑概率最高的K个token

取值范围:1 - 模型词表大小

与top_p的区别

  • top_k是固定数量的token
  • top_p是动态数量的token(基于概率)

示例配置

# 严格限制 PARAMETER top_k 20 # 标准配置 PARAMETER top_k 40 # 宽松限制 PARAMETER top_k 100 
6.5.4 repeat_penalty(重复惩罚)

作用:惩罚重复出现的token,减少重复输出

取值范围:1.0 - 2.0(通常1.0-1.5)

效果说明

  • 1.0:无惩罚,可能产生重复
  • 1.1-1.2:轻度惩罚,推荐默认值
  • 1.3-1.5:强惩罚,可能影响流畅度

示例配置

# 无惩罚 PARAMETER repeat_penalty 1.0 # 轻度惩罚(推荐) PARAMETER repeat_penalty 1.1 # 强惩罚 PARAMETER repeat_penalty 1.5 
6.5.5 min_p(最小概率)

作用:设置token被采样的最小概率阈值

取值范围:0.0 - 1.0

效果说明

  • 低于此概率的token不会被考虑
  • 与top_p配合使用,进一步过滤低概率token

示例配置

# 标准配置 PARAMETER min_p 0.05 # 更严格 PARAMETER min_p 0.1 
6.5.6 num_ctx(上下文长度)

作用:设置模型可以处理的上下文窗口大小(token数量)

取值范围:取决于模型支持的最大上下文

注意事项

  • 增大num_ctx会增加显存/内存占用
  • 不能超过模型本身支持的最大上下文
  • 过大的上下文可能影响推理速度

示例配置

# 短对话 PARAMETER num_ctx 1024 # 标准对话 PARAMETER num_ctx 4096 # 长文档处理 PARAMETER num_ctx 8192 
6.5.7 num_thread(线程数)

作用:设置CPU推理时使用的线程数

取值范围:1 - CPU核心数

建议配置

  • 通常设置为CPU物理核心数
  • 超线程情况下,可设置为物理核心数而非逻辑核心数

示例配置

# 4核CPU PARAMETER num_thread 4 # 8核CPU PARAMETER num_thread 8 # 16核CPU PARAMETER num_thread 16 
6.5.8 num_gpu(GPU层数)

作用:设置卸载到GPU的模型层数

取值范围:0 - 模型总层数

效果说明

  • 0:完全使用CPU
  • 中间值:部分层在GPU,部分在CPU
  • 最大值:所有层都在GPU(最快)

示例配置

# 纯CPU推理 PARAMETER num_gpu 0 # 混合推理 PARAMETER num_gpu 4 # 纯GPU推理(推荐,如有GPU) PARAMETER num_gpu 99 

注意:用户配置中的num_gpu 8表示将8层模型卸载到GPU。具体数值应根据模型总层数和显存大小调整。

6.6 stop参数(停止词)

作用:定义生成停止的触发词

语法PARAMETER stop "<停止词>"

为什么需要停止词

  • 防止模型生成多余内容
  • 匹配特定对话格式
  • 避免生成特殊标记

用户配置中的停止词解析

PARAMETER stop "<|begin_of_sentence|>" PARAMETER stop "<|end_of_sentence|>" PARAMETER stop "<|User|>" PARAMETER stop "<|Assistant|>" 

这些停止词是针对特定模型格式设置的,确保对话不会包含格式标记。

其他常见停止词

# 标准对话停止词 PARAMETER stop "User:" PARAMETER stop "Assistant:" # 代码生成停止词 PARAMETER stop "```" PARAMETER stop " " # 自定义停止词 PARAMETER stop "[END]" PARAMETER stop "###" 

6.7 其他可用指令

6.7.1 SYSTEM(系统提示)

作用:设置系统级别的提示词,定义模型行为

示例

SYSTEM """ 你是一个专业的编程助手,擅长Python、JavaScript和Go语言。 请提供简洁、准确、可运行的代码示例。 如果用户问题不明确,请主动询问澄清。 """ 
6.7.2 TEMPLATE(对话模板)

作用:自定义对话格式模板

示例

TEMPLATE """ {{ if .System }}<|system|> {{ .System }} <|end|> {{ end }} <|user|> {{ .Prompt }} <|end|> <|assistant|> {{ .Response }} <|end|> """ 
6.7.3 MESSAGE(示例对话)

作用:提供 Few-shot 示例,引导模型行为

示例

MESSAGE user "什么是Python?" MESSAGE assistant "Python是一种高级编程语言,以简洁易读著称..." MESSAGE user "如何打印Hello World?" MESSAGE assistant "print('Hello World')" 
6.7.4 ADAPTER(LoRA适配器)

作用:加载LoRA微调适配器

示例

ADAPTER ./my-lora-adapter 
6.7.5 LICENSE(许可证)

作用:声明模型许可证

示例

LICENSE """ MIT License Copyright (c) 2026 Your Name """ 

第四步:创建并运行自定义模型

7.1 创建Modelfile

步骤1:创建文件夹

在合适的位置创建项目文件夹:

D:\Ollama\CustomModels\DeepSeek-Custom\ 

步骤2:复制模型文件

将下载的GGUF文件复制到该文件夹:

DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf 

步骤3:创建Modelfile

在同一文件夹中创建文本文件,命名为Modelfile(无扩展名)或modelfile.txt

步骤4:编辑配置内容

使用文本编辑器(如Notepad++、VS Code)打开文件,输入配置内容:

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf PARAMETER temperature 0.7 PARAMETER top_p 0.95 PARAMETER top_k 40 PARAMETER repeat_penalty 1.1 PARAMETER min_p 0.05 PARAMETER num_ctx 1024 PARAMETER num_thread 4 PARAMETER num_gpu 8 PARAMETER stop "<|begin_of_sentence|>" PARAMETER stop "<|end_of_sentence|>" PARAMETER stop "<|User|>" PARAMETER stop "<|Assistant|>" 

步骤5:保存文件

确保文件编码为UTF-8,无BOM。

7.2 创建自定义模型

步骤1:打开终端

在模型文件夹中打开命令提示符或PowerShell:

  • 在文件夹地址栏输入cmd回车
  • 或右键点击文件夹 -> “在终端中打开”

步骤2:执行创建命令

ollama create deepseek-custom -f ./Modelfile 

命令解析

  • ollama create:创建模型命令
  • deepseek-custom:自定义模型名称(可自定义)
  • -f ./Modelfile:指定Modelfile路径

步骤3:等待构建完成

Ollama会读取GGUF文件并创建模型,进度会显示在终端:

transferring model data using existing layer sha256:abc123... using existing layer sha256:def456... success 

7.3 验证模型创建

查看模型列表

ollama list 

输出应包含新创建的模型:

NAME ID SIZE MODIFIED deepseek-custom abc123def456 2.1 GB 1 minute ago 

7.4 运行自定义模型

方法1:交互式对话

ollama run deepseek-custom 

进入交互模式后,可以直接输入问题:

>>> 你好,请介绍一下你自己 >>> 如何用Python读取CSV文件? >>> /bye # 退出对话 

方法2:单轮对话

ollama run deepseek-custom "请解释什么是机器学习"

方法3:通过API调用

curl http://localhost:11434/api/generate -d '{ "model": "deepseek-custom", "prompt": "你好", "stream": false }'

7.5 模型管理命令

查看模型详情

ollama show deepseek-custom 

查看模型完整信息

ollama show deepseek-custom --modelfile 

复制模型

ollama cp deepseek-custom deepseek-backup 

删除模型

ollama rm deepseek-custom 

导出模型

ollama cp deepseek-custom ./exported-model 

导入模型

ollama pull ./exported-model 

7.6 更新模型配置

如果需要修改配置:

步骤1:编辑Modelfile文件

步骤2:重新创建模型

ollama create deepseek-custom -f ./Modelfile 

注意:如果模型已存在,需要先删除或覆盖:

ollama rm deepseek-custom ollama create deepseek-custom -f ./Modelfile 

核心参数深度解析

8.1 参数调优方法论

参数调优不是随意的,应该遵循科学的方法:

调优原则

  1. 一次只调整一个参数:便于观察效果
  2. 记录每次配置:便于回溯和对比
  3. 使用固定测试集:确保评估一致性
  4. 考虑任务类型:不同任务需要不同配置

调优流程

1. 确定任务类型(对话/代码/写作/分析) 2. 设置基准配置 3. 选择评估指标(准确性/创造性/速度) 4. 逐一调整参数并测试 5. 记录最优配置 6. 应用到生产环境 

8.2 不同场景的参数配置模板

8.2.1 日常对话助手
FROM ./model.gguf PARAMETER temperature 0.7 PARAMETER top_p 0.95 PARAMETER top_k 40 PARAMETER repeat_penalty 1.1 PARAMETER num_ctx 4096 SYSTEM """ 你是一个友好、乐于助人的AI助手。 请用简洁、清晰的语言回答问题。 如果不确定答案,请诚实说明。 """ 
8.2.2 代码生成助手
FROM ./model.gguf PARAMETER temperature 0.3 PARAMETER top_p 0.9 PARAMETER top_k 20 PARAMETER repeat_penalty 1.2 PARAMETER num_ctx 8192 PARAMETER stop "```" SYSTEM """ 你是一个专业的编程助手。 请提供准确、可运行、有注释的代码。 优先使用最佳实践和现代语法。 """ 
8.2.3 创意写作助手
FROM ./model.gguf PARAMETER temperature 1.0 PARAMETER top_p 0.98 PARAMETER top_k 60 PARAMETER repeat_penalty 1.05 PARAMETER num_ctx 4096 SYSTEM """ 你是一个富有创造力的写作助手。 请生成生动、有趣、有想象力的内容。 不要害怕使用新颖的表达方式。 """ 
8.2.4 文档分析助手
FROM ./model.gguf PARAMETER temperature 0.5 PARAMETER top_p 0.92 PARAMETER top_k 30 PARAMETER repeat_penalty 1.15 PARAMETER num_ctx 16384 SYSTEM """ 你是一个专业的文档分析助手。 请准确提取关键信息,避免主观臆断。 引用原文时请标注出处。 """ 
8.2.5 多语言翻译助手
FROM ./model.gguf PARAMETER temperature 0.5 PARAMETER top_p 0.9 PARAMETER top_k 30 PARAMETER repeat_penalty 1.2 PARAMETER num_ctx 4096 SYSTEM """ 你是一个专业的翻译助手。 请保持原文含义,同时确保译文自然流畅。 保留专业术语的准确性。 """ 

8.3 参数组合效果分析

temperature + top_p组合

temperaturetop_p效果特征适用场景
0.30.9高度确定,保守代码、事实问答
0.50.92平衡稳定一般对话
0.70.95适度创意推荐默认
0.90.98高度创意创意写作
1.20.99极度发散头脑风暴

repeat_penalty + num_ctx组合

repeat_penaltynum_ctx效果特征注意事项
1.01024可能重复,短上下文资源节省
1.14096适度去重,标准上下文推荐配置
1.38192强去重,长上下文显存需求高
1.516384极少重复,超长上下文可能影响流畅度

8.4 性能与质量的权衡

推理速度优化

# 速度优先配置 PARAMETER num_thread 8 PARAMETER num_gpu 99 PARAMETER num_ctx 2048 PARAMETER temperature 0.5 

质量优先配置

# 质量优先配置 PARAMETER num_ctx 8192 PARAMETER temperature 0.7 PARAMETER top_p 0.95 PARAMETER repeat_penalty 1.1 

平衡配置

# 平衡配置 PARAMETER num_ctx 4096 PARAMETER temperature 0.6 PARAMETER top_p 0.93 PARAMETER repeat_penalty 1.15 

8.5 显存优化技巧

问题:显存不足导致推理失败或极慢

解决方案

  1. 降低量化等级:使用Q4而非Q8
  2. 减少num_ctx:降低上下文长度
  3. 调整num_gpu:减少GPU层数,让部分层在CPU
  4. 关闭其他GPU应用:释放显存

显存计算公式(近似)

显存需求 ≈ 模型大小(GB) + (num_ctx × 4KB) + 开销(1-2GB) 

示例

  • 7B Q4模型 ≈ 4GB
  • num_ctx 4096 ≈ 16MB
  • 总需求 ≈ 6GB(含开销)

常见问题与解决方案

9.1 安装相关问题

问题1:Microsoft Store找不到Ollama

可能原因

  • 地区限制
  • Store缓存问题
  • 系统版本过低

解决方案

1. 尝试网页版安装:https://ollama.com/download 2. 清除Store缓存:wsreset.exe 3. 检查Windows版本:需要Windows 10 1903+ 4. 使用GitHub Release手动安装 
问题2:安装后ollama命令无法识别

可能原因

  • 环境变量未配置
  • 需要重启终端

解决方案

1. 关闭并重新打开终端 2. 重启电脑 3. 手动添加环境变量: - 系统属性 -> 环境变量 - 添加 C:\Program Files\Ollama 到 Path 
问题3:Ollama服务无法启动

可能原因

  • 端口被占用
  • 权限不足
  • 防火墙拦截

解决方案

# 检查端口占用 netstat -ano | findstr 11434 # 停止占用进程 taskkill /PID <进程ID> /F # 以管理员身份运行# 右键 -> 以管理员身份运行# 检查防火墙设置# Windows Defender防火墙 -> 允许应用

9.2 模型下载问题

问题1:魔搭社区下载速度慢

解决方案

1. 使用下载工具(IDM、迅雷) 2. 选择非高峰时段下载 3. 检查网络连接 4. 尝试其他镜像源 
问题2:GGUF文件损坏

解决方案

1. 验证文件哈希值 2. 重新下载文件 3. 检查磁盘错误:chkdsk 4. 确保下载完成(文件大小匹配) 
问题3:模型加载失败

可能原因

  • GGUF版本不兼容
  • 文件路径错误
  • 模型格式不支持

解决方案

# 检查Ollama版本 ollama --version # 更新Ollama# 从官网下载最新版本# 验证GGUF文件# 确保是Ollama兼容的GGUF格式# 检查路径# 确保FROM指令路径正确

9.3 模型运行问题

问题1:推理速度极慢

可能原因

  • 纯CPU运行
  • 显存不足
  • 上下文过长

解决方案

# 启用GPU加速 PARAMETER num_gpu 99 # 减少上下文 PARAMETER num_ctx 2048 # 使用更小量化 # 下载Q4版本而非Q8 # 关闭其他占用GPU的程序 
问题2:输出内容重复

可能原因

  • repeat_penalty过低
  • temperature过低
  • 模型本身问题

解决方案

# 增加重复惩罚 PARAMETER repeat_penalty 1.2 # 适当提高温度 PARAMETER temperature 0.8 # 添加停止词 PARAMETER stop "\n\n" 
问题3:模型输出乱码

可能原因

  • 编码问题
  • 模型与格式不匹配
  • 停止词配置错误

解决方案

1. 确保Modelfile为UTF-8编码 2. 检查模型是否支持该对话格式 3. 调整或移除停止词 4. 尝试不同量化版本 
问题4:显存溢出(OOM)

可能原因

  • 模型太大
  • 上下文太长
  • 其他程序占用显存

解决方案

# 减少上下文长度 PARAMETER num_ctx 2048 # 减少GPU层数 PARAMETER num_gpu 4 # 使用更小的模型 # 或更低量化等级 

系统级优化

1. 关闭其他GPU应用 2. 降低显示分辨率 3. 增加虚拟内存 4. 考虑升级硬件 

9.4 API调用问题

问题1:API连接失败

解决方案

# 检查服务状态 ollama list # 检查端口 netstat -ano | findstr 11434 # 测试API curl http://localhost:11434/api/tags # 检查防火墙# 确保11434端口开放
问题2:API响应慢

解决方案

1. 使用流式响应:stream: true 2. 减少max_tokens 3. 优化模型配置 4. 升级硬件 

9.5 跨平台问题

Windows特有:
- 路径分隔符使用 \ 或 / - 注意文件名大小写不敏感 - 权限问题以管理员运行 
macOS特有:
- 可能需要授予终端权限 - Apple Silicon有原生优化 - 注意Gatekeeper安全设置 
Linux特有:
- 可能需要安装依赖 - 注意文件权限 - systemd服务配置 

性能优化最佳实践

10.1 硬件层面优化

GPU优化

1. 更新GPU驱动到最新版本 2. 启用GPU高性能模式 3. 确保GPU散热良好 4. 考虑GPU超频(谨慎) 

CPU优化

1. 设置高性能电源模式 2. 关闭不必要的后台程序 3. 确保CPU温度正常 4. 考虑CPU超频(谨慎) 

内存优化

1. 启用双通道内存 2. 确保内存频率达标 3. 关闭内存压缩(如影响性能) 4. 增加物理内存 

存储优化

1. 使用NVMe SSD 2. 确保存储有足够剩余空间 3. 定期清理临时文件 4. 启用存储缓存 

10.2 软件层面优化

Ollama配置优化

# 设置环境变量优化$env:OLLAMA_NUM_PARALLEL = "4"$env:OLLAMA_MAX_LOADED_MODELS = "2"# 持久化设置[System.Environment]::SetEnvironmentVariable('OLLAMA_NUM_PARALLEL','4','User')

系统优化

1. 关闭Windows视觉效果 2. 禁用不必要的启动项 3. 定期清理系统垃圾 4. 保持系统更新 

10.3 模型层面优化

量化选择

任务类型 推荐量化 理由 日常对话 Q4_K_M 速度质量平衡 代码生成 Q5_K_M 需要较高精度 专业写作 Q6_K 追求最佳质量 资源受限 Q4_0 最小占用 实验测试 Q4_K_M 快速迭代 

模型选择

场景 推荐规模 理由 简单问答 1.5B-3B 速度快,够用 日常使用 7B-8B 平衡性能 专业应用 14B-15B 能力更强 高精度需求 32B+ 最佳效果 

10.4 推理优化技巧

批处理优化

- 批量处理多个请求 - 减少API调用次数 - 合并相似任务 

缓存优化

- 缓存常用响应 - 使用上下文缓存 - 预加载常用模型 

流水线优化

- 并行处理独立任务 - 异步处理长任务 - 使用流式响应 

10.5 监控与调优

性能监控

# 监控GPU使用 nvidia-smi -l 1 # 监控内存使用 tasklist /V | findstr ollama # 监控API响应时间# 使用日志或监控工具

日志分析

1. 启用Ollama详细日志 2. 分析慢查询 3. 识别瓶颈 4. 针对性优化 

基准测试

1. 建立性能基准 2. 定期回归测试 3. 对比不同配置 4. 记录优化效果 

实战应用场景案例

11.1 场景一:个人知识助手

需求:构建个人专属的知识问答助手,基于个人文档库

实现方案

步骤1:准备知识库

- 收集个人文档(PDF、Markdown、TXT) - 整理分类存储 - 提取关键信息 

步骤2:配置模型

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf PARAMETER temperature 0.5 PARAMETER top_p 0.9 PARAMETER num_ctx 8192 PARAMETER repeat_penalty 1.2 SYSTEM """ 你是一个个人知识助手,基于用户提供的文档回答问题。 请准确引用信息来源。 如果文档中没有相关信息,请明确说明。 """ 

步骤3:创建模型

ollama create knowledge-assistant -f ./Modelfile 

步骤4:使用示例

ollama run knowledge-assistant "我上周关于项目会议的笔记里提到了什么关键决策?"

11.2 场景二:代码开发助手

需求:在VS Code中集成AI代码助手

实现方案

步骤1:安装VS Code插件

- 安装Continue插件 - 或安装Cody插件 - 配置Ollama作为后端 

步骤2:配置代码专用模型

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf PARAMETER temperature 0.3 PARAMETER top_p 0.9 PARAMETER top_k 20 PARAMETER repeat_penalty 1.2 PARAMETER num_ctx 8192 PARAMETER stop "```" SYSTEM """ 你是一个专业的编程助手,擅长Python、JavaScript、Go等语言。 请提供准确、可运行、有注释的代码。 优先使用最佳实践和现代语法。 解释代码时请简洁明了。 """ 

步骤3:配置插件

{"models":[{"name":"ollama","provider":"ollama","model":"code-assistant"}]}

步骤4:使用场景

- 代码补全 - 代码解释 - Bug修复 - 单元测试生成 - 代码重构建议 

11.3 场景三:文档自动摘要

需求:自动生成长文档摘要

实现方案

步骤1:配置摘要专用模型

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf PARAMETER temperature 0.4 PARAMETER top_p 0.9 PARAMETER num_ctx 16384 PARAMETER repeat_penalty 1.15 SYSTEM """ 你是一个专业的文档摘要助手。 请提取文档的核心要点,生成简洁的摘要。 保持原文的关键信息和数据。 摘要长度控制在原文的10%以内。 """ 

步骤2:创建Python脚本

import requests defsummarize_document(text): response = requests.post('http://localhost:11434/api/generate', json={'model':'summary-assistant','prompt':f'请为以下文档生成摘要:\n\n{text}','stream':False})return response.json()['response']# 使用示例withopen('document.txt','r', encoding='utf-8')as f: content = f.read() summary = summarize_document(content)print(summary)

11.4 场景四:多语言翻译服务

需求:构建本地多语言翻译服务

实现方案

步骤1:配置翻译模型

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf PARAMETER temperature 0.5 PARAMETER top_p 0.9 PARAMETER repeat_penalty 1.2 SYSTEM """ 你是一个专业的翻译助手。 请保持原文含义,同时确保译文自然流畅。 保留专业术语的准确性。 不要添加额外解释,只输出翻译结果。 """ 

步骤2:创建翻译API

from flask import Flask, request, jsonify import requests app = Flask(__name__)@app.route('/translate', methods=['POST'])deftranslate(): data = request.json text = data['text'] target_lang = data.get('target_lang','中文') prompt =f'请将以下内容翻译成{target_lang}:\n\n{text}' response = requests.post('http://localhost:11434/api/generate', json={'model':'translation-assistant','prompt': prompt,'stream':False})return jsonify({'translation': response.json()['response']})if __name__ =='__main__': app.run(port=5000)

11.5 场景五:智能客服机器人

需求:构建7x24小时智能客服

实现方案

步骤1:准备客服知识库

- 整理常见问题(FAQ) - 准备产品文档 - 收集历史对话记录 

步骤2:配置客服模型

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf PARAMETER temperature 0.6 PARAMETER top_p 0.93 PARAMETER num_ctx 4096 PARAMETER repeat_penalty 1.1 SYSTEM """ 你是一个专业的客服助手。 请友好、耐心地回答用户问题。 如果问题超出你的知识范围,请引导用户联系人工客服。 保持回答简洁、准确、有帮助。 """ MESSAGE user "如何重置密码?" MESSAGE assistant "您可以通过以下步骤重置密码:1. 访问登录页面 2. 点击'忘记密码' 3. 输入注册邮箱 4. 查收邮件并点击链接 5. 设置新密码" 

步骤3:集成到客服系统

- 网站聊天插件 - 微信公众号 - 企业微信 - 钉钉机器人 

总结与展望

12.1 本教程核心要点回顾

通过本教程,我们完成了以下内容:

  1. 理解本地部署价值:了解了本地部署相比云端服务的优势,包括隐私安全、离线可用、零边际成本等。
  2. 掌握Ollama安装:通过Microsoft Store完成了Ollama的安装,无需特殊网络环境。
  3. 学会模型获取:通过魔搭社区下载GGUF格式模型,解决了国内下载慢的问题。
  4. 精通Modelfile配置:深入理解了每个参数的含义和调优方法。
  5. 完成模型部署:成功创建并运行了自定义模型。
  6. 掌握问题排查:学习了常见问题的诊断和解决方法。
  7. 了解优化技巧:掌握了性能优化的多种方法。
  8. 实战应用案例:通过5个实际场景,展示了Ollama的应用潜力。

12.2 技术发展趋势

2026年AI本地部署趋势

  1. 模型小型化:更多高质量的小模型出现,降低硬件门槛
  2. 推理加速:新的推理引擎和技术不断涌现
  3. 多模态支持:文本、图像、音频的统一处理
  4. 边缘计算:在移动设备、IoT设备上运行AI
  5. 隐私计算:联邦学习、差分隐私等技术融合

Ollama发展方向

  1. 更多模型支持:持续增加官方模型库
  2. 更好的GUI:可能推出官方图形界面
  3. 企业级功能:多用户、权限管理、审计日志
  4. 云边协同:与云端服务的无缝集成
  5. 生态扩展:更多第三方工具和插件

12.3 学习建议

初学者路径

1. 完成本教程所有步骤 2. 尝试不同模型和配置 3. 参与Ollama社区讨论 4. 阅读官方文档 5. 构建自己的第一个应用 

进阶学习

1. 学习模型微调技术 2. 了解RAG(检索增强生成) 3. 掌握LangChain等框架 4. 研究推理优化技术 5. 贡献开源项目 

专业发展

1. 深入研究模型架构 2. 参与模型训练 3. 构建企业级解决方案 4. 发表技术文章 5. 成为社区贡献者 

12.4 资源推荐

官方资源

  • Ollama官网:https://ollama.com
  • Ollama文档:https://github.com/ollama/ollama/blob/main/docs/
  • Ollama模型库:https://ollama.com/library

社区资源

  • 魔搭社区:https://modelscope.cn
  • Hugging Face:https://huggingface.co
  • GitHub Ollama社区:https://github.com/ollama

学习资源

  • llama.cpp文档:https://github.com/ggerganov/llama.cpp
  • GGUF格式规范:https://github.com/ggerganov/llama.cpp/blob/master/docs/gguf.md
  • 大模型技术博客和论文

12.5 结语

本地AI大模型部署已经从专业技术人员的专属领域,变成了普通用户也能轻松掌握的技能。Ollama等工具的出现,大大降低了技术门槛,让更多人能够享受到AI带来的便利。

本教程介绍的"不用魔法"方案,特别适合国内用户。通过Microsoft Store安装Ollama,结合魔搭社区下载模型,完全规避了网络限制问题,让每个人都能在自己的电脑上运行强大的AI模型。

希望本教程能够帮助你顺利开启本地AI之旅。记住,技术只是工具,真正的价值在于你如何使用它来解决问题、创造价值。

最后提醒

  • 保持学习,AI技术日新月异
  • 注意安全,保护个人隐私和数据
  • 遵守法规,合理使用AI技术
  • 分享知识,帮助更多人受益

祝你在AI的世界里探索愉快!


附录

A. 常用命令速查

# 安装/更新 ollama --version # 模型管理 ollama pull # 下载模型 ollama list # 列出模型 ollama rm# 删除模型 ollama cp# 复制模型 ollama show # 查看模型信息# 运行模型 ollama run # 交互式运行 ollama run "prompt"# 单轮对话# 创建模型 ollama create -f # 服务管理 ollama serve # 启动服务(通常自动启动)

B. Modelfile指令速查

FROM # 基础模型(必需) PARAMETER # 参数设置 SYSTEM "" # 系统提示 TEMPLATE "" # 对话模板 MESSAGE "" # 示例对话 ADAPTER # LoRA适配器 LICENSE "" # 许可证 

C. 参数速查表

参数默认值范围说明
temperature0.80-2创造性控制
top_p0.90-1核采样概率
top_k401-词表大小Top-K采样
repeat_penalty1.11-2重复惩罚
min_p0.050-1最小概率
num_ctx20481-模型最大上下文长度
num_threadCPU核心数1-核心数CPU线程数
num_gpu自动0-层数GPU层数

D. 故障排查清单

□ Ollama服务是否运行? □ 端口11434是否开放? □ 模型文件是否完整? □ Modelfile语法是否正确? □ 路径是否正确? □ 权限是否足够? □ 硬件资源是否充足? □ 防火墙是否拦截? □ 杀毒软件是否阻止? □ 网络连接是否正常? 

博客信息

  • 发布时间:2026年2月
  • 适用版本:Ollama 0.5.x+
  • 测试环境:Windows 11, 魔搭社区

版权声明:本文内容可自由转载,请注明出处。

反馈与建议:欢迎在评论区留言交流,共同进步!


本文字数约12000字,涵盖了Ollama本地部署的方方面面。希望这份详尽的指南能够帮助你成功部署属于自己的AI大模型!

Read more

用 Python 搭建本地 AI 问答系统:避开 90% 新手都会踩的环境坑

用 Python 搭建本地 AI 问答系统:避开 90% 新手都会踩的环境坑

欢迎文末添加好友交流,共同进步! “ 俺はモンキー・D・ルフィ。海贼王になる男だ!” * 前言 * 一、整体架构概览 * 二、新手踩坑分布图 * 三、环境搭建:最容易翻车的第一步 * 3.1 用虚拟环境隔离,别污染全局 * 3.2 PyTorch 安装:版本对齐是关键 * 3.3 依赖管理:用 requirements.txt 锁定版本 * 四、模型下载:别让网络毁了你的心情 * 4.1 使用 Ollama 管理本地模型(强烈推荐) * 4.2 用 Python 调用 Ollama * 五、搭建 RAG 问答系统 * 5.

小白也能玩 OpenClaw?ToDesk AI桌面助手ToClaw 把门槛打到了零

小白也能玩 OpenClaw?ToDesk AI桌面助手ToClaw 把门槛打到了零

一、开篇 最近"小龙虾"彻底火出圈了。打开抖音、刷刷小红书,满屏都是 OpenClaw 的教程、测评和安装实录。更夸张的是,有人专门上门帮人部署,甚至有公司门口排起了长队——就为了装一只"龙虾"。 这波热度不亚于当年 ChatGPT 刚出来的时候。但热闹背后,有一个问题没人说清楚:这么多人在排队,到底在排什么?排的是环境配置、是服务器、是 API Key、是一堆看不懂的命令行。原生 OpenClaw 能力确实强,但它本质上是一个开源框架,想真正跑起来,你得先过技术这关。对普通用户来说,光是部署这一步,就足够劝退了。 所以问题来了——龙虾这么香,普通人就真的没办法吃到吗? 还真不一定。ToDesk 悄悄做了一件事,把这只龙虾"

Stable Diffusion AIGC 视觉设计实战教程之 09-ControlNet 插件

ControlNet 插件 ControlNet 概述 ControlNet(控制网)是由 lllyasviel 团队于 2023 年提出的神经网络架构,核心是为了解决在 Stable Diffusion 中如何让图像生成变得更加可控的问题,是 Stable Diffusion 迈向工业化的非常重要的一步。 ControlNet 通过预处理器提取参考图中的姿态、深度、边缘等结构信息,再由 ControlNet 模型转换为检查点模型能够理解的生成条件,让生成图像精准遵循参考图的布局与结构,彻底解决生图结构失控的痛点,是 Stable Diffusion 中实现精准控图的核心插件。 ControlNet 插件的应用场景: * 插画创作:基于线稿生成高精度彩色插画,保留线条构图。 * 角色设计:基于姿势参考图生成指定动作的角色形象,如游戏角色战斗姿势等。 * 建筑可视化:根据图纸生成写实风格的建筑效果图。 * 3D 模型辅助生成:根据深度图、法线图控制生成图像的空间立体感,辅助 3D 建模纹理绘制。 * 摄影修图:

从 OpenClaw 到 ToClaw:AI 代理网关的产品化之路

从 OpenClaw 到 ToClaw:AI 代理网关的产品化之路

定位说明:这是一篇偏“体验与选型思路”的横测笔记,不是参数党跑分,也不是安装教程。内容基于我对产品定位与常见使用路径的理解,公测策略与功能细节可能会随版本变化。 01|OpenClaw 是什么?能做什么? OpenClaw 可以理解为一种“AI 代理(Agent)网关/中枢”:你在聊天界面下指令,它会调用模型能力并配合工具,去做更接近“完成任务”的事情,而不是只聊天。它强调可扩展(技能/插件)、可接入多渠道、可在你自己的设备上运行等方向。 你能用 OpenClaw 做什么(偏通用能力) * 在聊天软件里接收任务、输出结果,并尽量保持持续记忆与上下文(取决于你的配置与使用方式) * 通过工具/技能扩展能力:文件读写、浏览器自动化、系统命令、定时任务、接入第三方服务等(不同发行与生态会有差异) 但现实门槛也很明显 * 自部署往往需要 Node.js