LLaMA-Factory 快速入门(五):终端命令实操记录

文章目录

1. 引言

在使用 LLaMA-Factory 进行大模型的微调、评估和部署时,llamafactory-cli 是最常用的命令行工具。它不仅支持命令行对话、训练、评估,还提供了网页界面、API 服务等多种交互方式。

本文将详细介绍 llamafactory-cli 的常用命令及其使用方法,帮助你快速上手并高效完成相关任务。

2. 命令使用

命令功能简述
llamafactory-cli api启动 OpenAI 风格的 API 服务
llamafactory-cli chat在命令行中启动聊天界面
llamafactory-cli eval评估模型
llamafactory-cli export合并 LoRA 适配器并导出模型
llamafactory-cli train训练模型
llamafactory-cli webchat启动网页聊天界面
llamafactory-cli webui启动 LlamaBoard 界面
llamafactory-cli version显示版本信息

2.1 version(显示版本)

功能:显示 LLaMA-Factory 的版本信息,验证安装是否成功

执行命令:

llamafactory-cli version 

执行后的效果如下:

在这里插入图片描述

2.2 webui(启动 LlamaBoard 界面)

功能:启动可视化界面 LlamaBoard,提供图形化操作入口

执行命令:

llamafactory-cli webui 

执行后返回:

在这里插入图片描述


浏览器访问:http://127.0.0.1:7860

2.3 chat(命令行聊天)

功能:接在终端中与模型进行对话,无需启动网页

最小化命令:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如:

llamafactory-cli chat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 

执行效果如下:

在这里插入图片描述


当然也可以从模型训练完的chekcpoint启动,命令如下:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--adapter_name_or_path 训练后的路径\--template 模板名称 

例如:

llamafactory-cli chat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--adapter_name_or_path saves/DeepSeek-R1-1.5B-Distill/lora/cx_666_final_optimized \--template deepseekr1 

2.4 webchat(网页聊天)

功能:启动网页端聊天界面

webchat的功能跟chat命令差不多,只是webchat是给了一个web页面进行对话。最小化命令如下:

llamafactory-cli webchat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如:

llamafactory-cli webchat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 
在这里插入图片描述


当然也可以从模型训练完的chekcpoint启动webchat,跟chat命令差不多:

llamafactory-cli webchat \--model_name_or_path 模型名称或本地路径 \--adapter_name_or_path 训练后的路径\--template 模板名称 

2.5 api(启动 API 服务)

功能:启动 OpenAI 风格的 API 服务

最小化命令:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如执行:

llamafactory-cli api \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 

可以看到输出了如下信息:

在这里插入图片描述


浏览器访问:http://localhost:8000/docs

在这里插入图片描述


可以看到开放了3种API,分别是:

接口名称路径说明
List Models/v1/models列出当前可用的模型,用于查看可选择的模型信息
Create Chat Completion/v1/chat/completions生成聊天回复,用于对话或文本生成
Create Score Evaluation/v1/score/evaluation对模型输出进行评分或评估,用于检测生成内容质量

直接执行ListModels列出当前可用的模型,可以看见返回:

在这里插入图片描述


执行Create Chat Completion,示例请求内容如下:

{"model":"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B", "messages":[{"role":"user", "content":"你好,可以自我介绍一下吗?"}], "do_sample": true, "temperature":0.7, "top_p":0.9, "n":1, "max_tokens":512, "stream":false}

可以看到返回:

在这里插入图片描述

2.6 train(训练模型 )

功能:启动训练流程,对模型进行微调

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

2.7 eval(评估模型 )

功能::对训练后的模型进行性能评估

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

2.8 export(导出模型 )

功能:合并 LoRA 适配器并导出最终模型

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

3. 总结

本文详细介绍了 LLaMA-Factory 的命令行工具 llamafactory-cli 的常用功能,包括版本检查、命令行聊天、网页聊天、可视化界面、API 服务,以及训练、评估、导出等核心操作。

  • 可以先从 chat / webchat 开始,快速体验模型效果;
  • 如果需要部署服务,建议使用 api 模式;
  • 完整训练流程中,train → eval → export 是必经的三个步骤。

通过灵活使用这些命令,大家可以快速搭建起属于自己的大模型微调与应用环境 。

Read more

NWPU VHR-10数据集 无人机遥感目标检测数据集 飞机 储罐 棒球场 网球场篮球场 港口车辆桥梁检测 遥感图像中的地理空间目标检测

NWPU VHR-10数据集 无人机遥感目标检测数据集 飞机 储罐 棒球场 网球场篮球场 港口车辆桥梁检测 遥感图像中的地理空间目标检测

NWPU VHR-10数据集 遥感数据集 NWPU VHR-10数据集是 10个类别地理空间目标检测的挑战性数据集,共650张图片。 YOLO和COCO格式 数据集按默认划分比例:390张训练集、130张验证集、130张测试集。 手动标注了757架飞机、302艘船只、655个储罐、390个棒球场、524个网球场、159个篮球场、163个田径场、224个港口、124座桥梁和598辆车辆。 📊 一、数据集总体信息 项目描述数据集名称NWPU VHR-10(Northwestern Polytechnical University Very High Resolution 10-class Dataset)任务类型遥感图像中的地理空间目标检测(Object Detection in Remote Sensing Images)图像总数650 张(均为高分辨率遥感图像,源自 Google Earth 等平台)图像分辨率约 600×600

Java 大视界 -- Java 大数据在智能家居设备联动与场景化节能中的应用拓展(413)

Java 大视界 -- Java 大数据在智能家居设备联动与场景化节能中的应用拓展(413)

Java 大视界 -- Java 大数据在智能家居设备联动与场景化节能中的应用拓展(413) * 引言: * 正文: * 一、技术基石:Java 大数据赋能智能家居的 “三位一体” 架构 * 1.1 架构全景图 * 1.2 核心技术栈选型与生产配置(附数据出处) * 1.3 核心数据模型(POJO 类,附表结构与业务含义) * 1.3.1 设备状态实体类(对应 ClickHouse 实时表) * 1.3.2 联动规则实体类(对应 MySQL 配置表) * 1.3.3 缺失工具类补充:SpringContextUtil(生产必用) * 二、核心场景 1:

OpenClaw 是一个开源的、面向具身智能(Embodied AI)与机器人操作研究的多模态大模型框架

OpenClaw 是一个开源的、面向具身智能(Embodied AI)与机器人操作研究的多模态大模型框架

OpenClaw 是一个开源的、面向具身智能(Embodied AI)与机器人操作研究的多模态大模型框架,由上海人工智能实验室(Shanghai AI Lab)联合多家机构于2024年发布。它聚焦于“视觉-语言-动作”(Vision-Language-Action, VLA)联合建模,旨在让AI不仅能理解环境和指令,还能生成可执行的、细粒度的机器人控制动作序列(如关节扭矩、末端位姿、抓取姿态等),支持真实/仿真双环境部署。 核心特点包括: * ✅ 多模态对齐:统一编码图像、语言指令、机器人本体状态(如关节角度、力觉反馈); * ✅ 动作生成范式:采用“tokenized action”设计,将连续动作离散化为可学习的action tokens,便于大模型端到端生成; * ✅ 开源生态:提供预训练模型权重、仿真环境(基于ManiSkill2)、真实机械臂适配接口(如UR5e + Robotiq 2F-85)、数据集(OpenClaw-Bench)及训练/

宇树科技Go2机器人强化学习(RL)开发实操指南

宇树科技Go2机器人强化学习(RL)开发实操指南

在Go2机器人的RL开发中,环境配置、模型训练、效果验证与策略部署的实操步骤是核心环节。本文基于宇树科技官方文档及开源资源,以Isaac Gym和Isaac Lab两大主流仿真平台为核心,提供从环境搭建到实物部署的全流程操作步骤,覆盖关键命令与参数配置,帮助开发者快速落地RL开发。 一、基础准备:硬件与系统要求 在开始操作前,需确保硬件与系统满足RL开发的基础需求,避免后续因配置不足导致训练中断或性能瓶颈。 类别具体要求说明显卡NVIDIA RTX系列(显存≥8GB)需支持CUDA加速,Isaac Gym/Isaac Lab均依赖GPU进行仿真与训练操作系统Ubuntu 18.04/20.04/22.04推荐20.04版本,兼容性最佳,避免使用Windows系统(部分依赖不支持)显卡驱动525版本及以上需与CUDA版本匹配(如CUDA 11.3对应驱动≥465.19.01,CUDA 11.8对应驱动≥520.61.05)软件依赖Conda(