使用 Miniforge3 管理 Python 环境的详细指南(基于最新实践和时效性信息,截至 2025 年)

使用 Miniforge3 管理 Python 环境的详细指南(基于最新实践和时效性信息,截至 2025 年)

以下是使用 Miniforge3 管理 Python 环境的详细指南(基于最新实践和时效性信息,截至 2025 年):


一、Miniforge3 简介

Miniforge3 是一个轻量级 Conda 环境管理工具,默认使用 conda-forge 软件源(社区维护的包更全且更新更快),尤其适配 ARM 架构(如 Apple M1/M2/M3 芯片)。相比 Anaconda,它更精简且兼容性更好。


二、安装步骤

1. 下载安装包

安装最新的 Mamba,建议通过安装 Miniforge 来实现,Miniforge 默认包含 Mamba

  • 推荐镜像源
    • 南京大学镜像站
    • 清华大学开源软件镜像站(https://mirrors.tuna.tsinghua.edu.cn/github-release/conda-forge/miniforge/)
  • 选择最新版本(如 Miniforge3-Linux-x86_64 / Miniforge3-Windows-x86_64.exe / Miniforge3-MacOSX-arm64
2. 安装
  • Windows:双击 .exe 文件,安装时勾选 “Add to PATH”(自动配置环境变量)。
  • macOS/Linux:终端执行:
bash Miniforge3-<系统架构>.sh 

安装过程中选择安装路径(建议默认),并同意初始化 Conda(输入 yes)。

3. 验证安装
conda --version# 输出版本号(如 conda 24.1.2) conda info # 查看环境信息

三、环境管理

1. 创建新环境
conda create -n my_env python=3.10# 创建名为 my_env 的 Python 3.10 环境 mamba create -n my_env pyhton=3.12# 替代conda(推荐)
2. 激活/退出环境

注意:PowerShell中使用mamba激活环境,使用conda即可;cmd中可正常使用mamba进行激活

conda activate my_env # 激活环境 conda deactivate # 退出当前环境# 亦可使用 mamba 替代# 注意:PowerShell中使用mamba激活环境,使用conda即可;cmd中可正常使用mamba进行激活 mamba activate my_env # 激活环境 mamba deactivate # 退出当前环境
3. 删除环境
conda remove -n my_env --all

四、包管理

1. 安装包
conda install numpy # 从 conda-forge 安装 pip install package # 或用 pip(当 conda 源无此包时)
2. 使用 Mamba 加速(推荐)
Why and How 使用Mamba?-> 使用 Mamba 管理 Python 环境

Mamba 是 Conda 的快速替代工具:

conda install mamba -n base -c conda-forge # 先安装 mamba install tensorflow # 替代 conda install

五、镜像配置(加速下载)

1. 配置清华镜像和默认创建的新环境的路径

Mamba 设置镜像源:清华镜像源

编辑 C:\Users\<UserName>\.condarc 文件,复制网站内的指定内容添加进去:

channels:- defaults show_channel_urls:truedefault_channels:- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2 custom_channels:conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud 

例如,我的文件内容:

channels:- defaults show_channel_urls:truedefault_channels:- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2 custom_channels:conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud envs_dirs:- D:\Miniforge3\envs 

六、常见问题

1. Conda 命令失效
  • 原因:环境变量未正确配置。
  • 解决:重新初始化:
~/miniforge3/bin/conda init zsh# 根据 Shell 类型(bash/zsh)
2. 兼容性问题
  • ARM 设备(如 M1 Mac):必须使用 Miniforge3-MacOSX-arm64 版本,避免混合 x86 和 ARM 包。
  • 旧 Anaconda 冲突:卸载 Anaconda 后再安装 Miniforge3。

七、注意事项

  1. 避免修改 base 环境:新建独立环境进行操作,防止核心依赖损坏。
  2. 环境迁移
conda envexport> environment.yml # 导出环境配置 conda env create -f environment.yml # 在新机器上重建环境

时效性提示:以上内容基于 2025 年最新实践,若安装包版本更新,请以 Miniforge 官方文档 为准。

Read more

FLUX.2[klein]开源!小香蕉平替,本地部署AI绘画的极简方案

FLUX.2[klein]开源!小香蕉平替,本地部署AI绘画的极简方案

文章目录 * 前言 * 一、FLUX.2[klein]到底香在哪? * 二、部署前准备:硬件+环境一键搞定 * 1. 硬件要求(最低配置) * 2. 环境安装(3行命令搞定) * 三、极简部署方案:2种方式任选(新手首选方式1) * 方式1:Python脚本一键运行(纯代码,无界面,最快上手) * 步骤1:创建运行脚本 * 步骤2:运行脚本 * 方式2:ComfyUI可视化部署(适合喜欢拖拽操作的用户) * 步骤1:安装ComfyUI * 步骤2:下载FLUX.2[klein]模型 * 步骤3:启动ComfyUI并加载工作流 * 四、常见问题&优化技巧 * 1. 显存不足怎么办? * 2. 模型下载慢/

By Ne0inhk
Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

1.引言 随着大模型在各类智能应用中的广泛应用,高效的推理硬件成为关键瓶颈。昇腾 NPU(Ascend Neural Processing Unit)凭借其高算力、低能耗以及对 SGLang 的深度优化,能够显著提升大模型推理性能。本文以 Llama 3-8B-Instruct 为例,通过在昇腾 NPU 上的实测,展示其在吞吐量、延迟和资源利用方面的优势,并探索可行的优化策略,为开发者在今后的开发中提供可参考的案例。 在本篇文章中我们会使用到Gitcode的Notebook来进行实战,GitCode Notebook 提供了开箱即用的云端开发环境,支持 Python、SGLang 及昇腾 NPU 相关依赖,无需本地复杂环境配置即可直接运行代码和进行实验。对于没有硬件平台的小伙伴来说是非常便利的。 GitCode Notebook使用链接:https://gitcode.com/user/m0_49476241/notebook。 2.实验环境与准备 2.

By Ne0inhk
在昇腾 NPU 上跑 Llama 大模型:从 “踩坑到通关” 的全程实战记

在昇腾 NPU 上跑 Llama 大模型:从 “踩坑到通关” 的全程实战记

在昇腾 NPU 上跑 Llama 大模型:从 “踩坑到通关” 的搞笑实战记 本文分享了在昇腾 NPU 上部署测试 Llama-2-7B 大模型的全过程。提供踩坑经验。作者因其他硬件价格高、服务器昂贵,选择昇腾 NPU,其自主可控的达芬奇架构、完善的开源生态及 GitCode 免费测试资源是主要吸引力。文中详细介绍了 GitCode 上创建昇腾 Notebook 实例的关键配置、环境验证方法,以及安装 transformers 库、下载部署模型的步骤,还记录了遇到的 “torch.npu 找不到”“模型下载需权限” 等四个常见问题及解决方案。通过测试英文生成、中文对话、代码生成三种场景,得出 16-17 tokens/s 的吞吐量,虽低于预期但性能稳定,并给出使用 MindSpeed-LLM 框架、

By Ne0inhk