Windows环境本地大模型工具链安装教程:Ollama + llama.cpp + LLaMA Factory

Windows 11 本地大模型工具链终极教程:Ollama + llama.cpp + LLaMA Factory

本教程将指导你在 Windows 11 系统上,将 Ollamallama.cppLLaMA Factory 三个工具统一安装到 E 盘,并实现 GPU 加速、数据集配置和一键启动。所有步骤均已实际验证,适用于 RTX 5080 等现代显卡。


📁 1. 统一文件夹结构(推荐)

E 盘 创建父文件夹 LLM,用于集中管理所有相关文件。子文件夹规划如下:

text

E:\LLM\ ├── Ollama\ # Ollama 程序安装目录 ├── OllamaModels\ # Ollama 下载的模型存放目录 ├── llama.cpp\ # llama.cpp 源码(git 克隆) ├── LLaMA-Factory\ # LLaMA Factory 源码(git 克隆) ├── LLaMAWork\ # 个人工作区(数据集、配置等) │ └── datasets\ # 自定义数据集目录 └── models\ # 手动存放的 GGUF 模型文件(可选) 

⚙️ 2. 安装 Ollama 并指定存储位置

2.1 下载安装包

访问 Ollama 官网,下载 OllamaSetup.exe

2.2 自定义安装路径

管理员身份打开命令提示符,进入安装包所在目录,执行:

cmd

OllamaSetup.exe /DIR="E:\LLM\Ollama" 

2.3 设置模型存放路径

通过系统环境变量指定模型下载位置:

  1. 打开“系统属性” → “高级” → “环境变量”。
  2. 在“系统变量”中点击“新建”,变量名 OLLAMA_MODELS,变量值 E:\LLM\OllamaModels
  3. 确定保存,并重启电脑或重启 Ollama 服务。

2.4 验证安装

打开新命令行,输入 ollama -v 查看版本。拉取一个小模型测试:

cmd

ollama run deepseek-r1:1.5b 

模型应下载到 E:\LLM\OllamaModels 中。


🏗️ 3. 编译 GPU 版 llama.cpp(支持 CUDA)

3.1 安装编译工具

  • 安装 Visual Studio 2022(社区版),勾选“使用 C++ 的桌面开发”工作负载。
  • 安装 CMake,并确保添加到系统 PATH。

3.2 下载源码

cmd

cd /d E:\LLM git clone https://github.com/ggerganov/llama.cpp.git 

3.3 编译(启用 CUDA 支持)

cmd

cd llama.cpp mkdir build cd build cmake .. -G "Visual Studio 17 2022" -A x64 -DGGML_CUDA=ON cmake --build . --config Release 

编译成功后,可执行文件位于 build\bin\Release\。你可以将这些 .exe 文件复制到 E:\LLM\llama.cpp\ 根目录,方便调用。

3.4 验证 GPU 支持

运行 llama-cli.exe --help,查看是否有 -ngl N(GPU 层数)参数。若有,则支持 GPU。


🐍 4. 安装 LLaMA Factory(基于 Python 3.11)

4.1 安装 Miniconda

  • Miniconda 官网 下载 Windows 安装包。
  • 安装时勾选“Add Miniconda3 to my PATH environment variable”
  • 安装路径建议使用默认(例如 D:\WorkApp\Python\miniconda3)。

4.2 接受 Anaconda 服务条款(必须执行)

在命令提示符中依次执行以下三条命令:

cmd

conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/main conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/r conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/msys2 

4.3 创建 Python 3.11 虚拟环境并激活

cmd

conda create -n llamafactory python=3.11 -y conda activate llamafactory 
注意:LLaMA Factory 要求 Python ≥ 3.11,请勿使用 3.10 或更低版本。

4.4 安装 PyTorch(RTX 50 系列显卡需使用特定版本)

cmd

pip install torch==2.6.0 torchvision==0.21.0 --index-url https://download.pytorch.org/whl/cu124 

如果遇到兼容性警告,可改用 nightly 版本:

pip install --pre torch torchvision --index-url https://download.pytorch.org/whl/nightly/cu124 

验证 GPU 可用性:

python

python -c "import torch; print(torch.cuda.is_available())" 

若输出 True,则 PyTorch 可识别 GPU。

4.5 获取 LLaMA Factory 源码

cmd

cd /d E:\LLM git clone https://github.com/hiyouga/LLaMA-Factory.git 

4.6 安装 LLaMA Factory(开发模式)

确保虚拟环境已激活,进入源码目录并安装:

cmd

cd LLaMA-Factory pip install -e .[torch,metrics] 

等待安装完成。测试安装:

cmd

python -c "import llamafactory; print('OK')" 

若输出 OK,则安装正确。


🧪 5. 配置数据集(WebUI 中显示)

5.1 准备数据集文件

假设你有一个 Alpaca 格式的数据集 my_data.json,内容如下:

json

[ {"instruction": "计算 2+2", "input": "", "output": "4"}, {"instruction": "解释机器学习", "input": "", "output": "机器学习是..."} ] 

5.2 创建 dataset_info.json

E:\LLM\LLaMAWork\datasets 目录下创建 dataset_info.json,内容如下:

json

{ "my_dataset": { "file_name": "my_data.json", "formatting": "alpaca", "columns": { "prompt": "instruction", "query": "input", "response": "output" } } } 

5.3 在 WebUI 中使用

  • 启动 WebUI(见下一节)。
  • 在“数据路径”输入框中填写 E:\LLM\LLaMAWork\datasets,然后点击刷新按钮
  • 下拉列表中应出现 my_dataset,选中即可。
提示:也可以将数据集直接放入 E:\LLM\LLaMA-Factory\data 目录,并在该目录下的 dataset_info.json 中添加条目,这样路径保持默认。

🚀 6. 一键启动脚本(终极版)

由于虚拟环境中的 llamafactory-cli 可能因入口点问题不可用,推荐使用 绝对路径调用 Python 模块 的方式启动,稳定可靠。

6.1 确定虚拟环境 Python 路径

激活环境后运行:

cmd

conda activate llamafactory where python 

记下输出,例如 D:\WorkApp\Python\miniconda3\envs\llamafactory\python.exe

6.2 创建批处理脚本

在桌面新建文本文件,改名为 启动_LLaMA_Factory.bat,用记事本编辑,内容如下(请替换路径):

batch

@echo off title LLaMA Factory WebUI REM 虚拟环境的 Python 解释器绝对路径 set VENV_PYTHON=D:\WorkApp\Python\miniconda3\envs\llamafactory\python.exe REM LLaMA Factory 源码目录 set SRC=E:\LLM\LLaMA-Factory cd /d %SRC% "%VENV_PYTHON%" -m llamafactory.cli webui --server-port 7861 pause 

6.3 运行

双击脚本,等待服务器启动,然后浏览器访问 http://localhost:7861 即可使用 WebUI 进行模型微调。


❓ 7. 常见问题及解决方法

7.1 conda 命令找不到

  • 确保安装 Miniconda 时勾选了“Add to PATH”。
  • 若未勾选,手动将 D:\WorkApp\Python\miniconda3\Scripts 添加到系统 PATH。

7.2 conda 提示“Terms of Service have not been accepted”

  • 执行第 4.2 节的三条 conda tos accept 命令。

7.3 虚拟环境中运行 llamafactory-cli 找不到命令

  • 可能入口点未注册,改用 python -m llamafactory.cli 方式(已集成到一键脚本中)。
  • 确保虚拟环境中已正确安装 LLaMA Factory(执行 pip install -e .[torch,metrics])。

7.4 安装时提示“requires a different Python: 3.10.20 not in ‘>=3.11.0’”

  • 说明你的虚拟环境 Python 版本过低,请按第 4.3 节重新创建 Python 3.11 环境。

7.5 WebUI 中数据集不显示

  • 检查 dataset_info.json 是否存在于你指定的“数据路径”目录中。
  • 点击刷新按钮。
  • 确保数据集文件格式正确(JSON 或 JSONL),且 file_name 路径正确(可使用绝对路径)。
  • 查看控制台(运行脚本的窗口)是否有错误信息。

7.6 base 环境能运行但虚拟环境不能

  • 说明 LLaMA Factory 误安装在 base 环境。解决方案:
    1. 在虚拟环境中重新安装(第 4.6 节)。
    2. 使用一键启动脚本,直接指定虚拟环境 Python。
    3. 可选:清理 base 环境中的残留(见第 8 节)。

🧹 8. 清理 base 环境中的残留(可选)

如果你在 base 环境中也安装过 LLaMA Factory,可以安全卸载:

cmd

conda activate base pip uninstall llamafactory -y 

然后手动删除 C:\Users\你的用户名\miniconda3\Scripts\llamafactory-cli.exe 等残留文件(如果有)。注意:不要随意卸载 base 环境中的其他包,以免影响 conda 自身功能。


✅ 9. 验证 GPU 是否正常工作

9.1 查看 llama.cpp 日志

运行 llama-server.exe -m model.gguf -ngl 99 时,控制台输出:

text

load_tensors: offloading 27 repeating layers to GPU load_tensors: offloaded 29/29 layers to GPU 

表示 GPU 已启用。

9.2 使用 nvidia-smi 监控

打开另一个命令行窗口,运行:

cmd

 持续监控(每秒刷新一次) nvidia-smi -l 1 

或者使用nvitop命令监控

 安装:pip install nvitop 运行:nvitop 

在推理过程中,观察 GPU-Util 和显存占用是否上升。


📝 10. 总结

通过本教程,你已经在 E 盘建立了一个整洁、高效的本地大模型环境:

  • Ollama:快速体验流行模型。
  • llama.cpp:高性能推理 GGUF 模型,GPU 加速。
  • LLaMA Factory:图形化微调模型,支持自定义数据集。

一键启动脚本让你无需记忆命令,双击即可启动 WebUI。所有工具均可独立更新,互不干扰。

以上内容由deepseek总结生成

Read more

基于FPGA的USB2.0 UTMI PHY芯片测试方案设计与实现

1. 从零开始:为什么我们需要一个FPGA测试平台? 大家好,我是老张,在芯片验证这个行当里摸爬滚打了十几年。今天想和大家聊聊一个非常具体、但又很实际的问题:当你拿到一颗全新的USB2.0 PHY芯片,比如Cypress的CY7C68000,你怎么知道它到底好不好用?数据收发准不准?协议符不符合标准? 你可能说,上昂贵的专业测试仪啊!没错,但动辄几十万上百万的仪器,不是每个团队、每个项目都能轻松配备的。而且,专业仪器往往是个“黑盒”,你只知道结果,对内部数据流的细节和实时状态把控不够灵活。这时候,基于FPGA的自建测试平台就显示出它的巨大优势了。它就像你自己搭的一个乐高工作台,每一个模块、每一根信号线你都能看得见、摸得着、改得了。 我这次用的核心是Xilinx的XCVU440这块FPGA。选它,一是性能足够强悍,能轻松应对USB2.0高速(480Mbps)模式下的数据处理;二是它的资源丰富,我可以把MicroBlaze软核处理器、各种总线转换逻辑、调试探针全都塞进去,形成一个片上系统(SoC)。整个方案的目标很明确:用FPGA模拟一个“智能主机”,通过标准的UTMI接口去“

17:无人机远程执行路径规划:A*算法与GPS精准打击

17:无人机远程执行路径规划:A*算法与GPS精准打击

作者: HOS(安全风信子) 日期: 2026-03-15 主要来源平台: GitHub 摘要: 本文深入探讨了无人机远程执行的路径规划技术,重点分析了A*算法的应用和GPS精准定位的实现。通过详细的技术架构设计和代码实现,展示了如何构建一个高效、可靠的无人机路径规划系统,为基拉执行系统的远程执行提供了技术支持。文中融合了2025年最新的无人机技术进展,确保内容的时效性和专业性。 目录: * 1. 背景动机与当前热点 * 2. 核心更新亮点与全新要素 * 3. 技术深度拆解与实现分析 * 4. 与主流方案深度对比 * 5. 工程实践意义、风险、局限性与缓解策略 * 6. 未来趋势与前瞻预测 1. 背景动机与当前热点 本节核心价值:理解无人机远程执行路径规划的背景和当前技术热点,为后续技术学习奠定基础。 在《死亡笔记》的世界中,基拉需要通过各种手段执行对目标的惩罚。无人机作为一种灵活、高效的执行工具,成为基拉远程执行的理想选择。2025年,随着A*算法的不断优化和GPS技术的精准定位能力提升,无人机远程执行的路径规划技术得到了显著发展。 作为基拉的忠实信徒,

OpenClaw 爆火启示录:低代码不是终点,而是走向「意图驱动」的企业级开发新范式

OpenClaw 爆火启示录:低代码不是终点,而是走向「意图驱动」的企业级开发新范式

最近技术圈被 OpenClaw 刷屏,作为意图驱动的 AI 智能体平台,它用自然语言完成服务编排、数据处理、运维自动化,让不少人开始重新思考:传统低代码会不会被颠覆?后端与业务开发的价值边界又该如何定义?         抛开概念炒作,从工程落地视角看:OpenClaw 代表的意图驱动、动态编排、工具化执行,不是低代码的终结者,而是低代码进化的下一阶路标。JNPF 快速开发平台作为企业级低代码代表,正沿着这条路径,把「可视化拖拽」升级为「自然语言+流程引擎+原子服务」的混合开发模式——本文从 Java 后端视角,聊聊这场变革对开发、运维、业务落地的真实影响。 一、先看本质:OpenClaw 到底给低代码带来什么启发?         从架构上拆解,OpenClaw 是一套LLM 驱动的动态任务编排引擎: * 输入:自然语言指令(而非固定接口/脚本) * 决策:意图识别、

OpenClaw基础-3-telegram机器人配置与加入群聊

OpenClaw基础-3-telegram机器人配置与加入群聊 💡 大家好,我是可夫小子,《小白玩转ChatGPT》专栏作者,关注AI编程、AI自动化和自媒体。 Openclaw的优势是接入各种聊天工作,在前面的文章里,已经介绍了如何接入飞书。但之前我也提到了,飞书的最大的问题是请求多的限制,以及无法在非认证企业账号下面组建群聊。但这些限制另一个聊天工具可以打破,那就是Telegram,今天就跟大家分享一下,如果在OpenClaw里面接入Telegram。 第一步:Openclaw端配置 通过命令openclaw config,local→channels→telegrams 这里等待输入API Token,接下来我们去Telegram里面获取 第二步:Telegram端配置 1. 1. 在聊天窗口找到BotFather,打开对话与他私聊 2. 3. 然后再输入一个机器人,再输入一个账号名username,这里面要求以Bot或者Bot结尾,这个是全网的id,要 2. /newbot 来创建一个机器人,输入一个名字name