LLaMA-Factory 快速入门(五):终端命令实操记录

文章目录

1. 引言

在使用 LLaMA-Factory 进行大模型的微调、评估和部署时,llamafactory-cli 是最常用的命令行工具。它不仅支持命令行对话、训练、评估,还提供了网页界面、API 服务等多种交互方式。

本文将详细介绍 llamafactory-cli 的常用命令及其使用方法,帮助你快速上手并高效完成相关任务。

2. 命令使用

命令功能简述
llamafactory-cli api启动 OpenAI 风格的 API 服务
llamafactory-cli chat在命令行中启动聊天界面
llamafactory-cli eval评估模型
llamafactory-cli export合并 LoRA 适配器并导出模型
llamafactory-cli train训练模型
llamafactory-cli webchat启动网页聊天界面
llamafactory-cli webui启动 LlamaBoard 界面
llamafactory-cli version显示版本信息

2.1 version(显示版本)

功能:显示 LLaMA-Factory 的版本信息,验证安装是否成功

执行命令:

llamafactory-cli version 

执行后的效果如下:

在这里插入图片描述

2.2 webui(启动 LlamaBoard 界面)

功能:启动可视化界面 LlamaBoard,提供图形化操作入口

执行命令:

llamafactory-cli webui 

执行后返回:

在这里插入图片描述


浏览器访问:http://127.0.0.1:7860

2.3 chat(命令行聊天)

功能:接在终端中与模型进行对话,无需启动网页

最小化命令:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如:

llamafactory-cli chat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 

执行效果如下:

在这里插入图片描述


当然也可以从模型训练完的chekcpoint启动,命令如下:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--adapter_name_or_path 训练后的路径\--template 模板名称 

例如:

llamafactory-cli chat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--adapter_name_or_path saves/DeepSeek-R1-1.5B-Distill/lora/cx_666_final_optimized \--template deepseekr1 

2.4 webchat(网页聊天)

功能:启动网页端聊天界面

webchat的功能跟chat命令差不多,只是webchat是给了一个web页面进行对话。最小化命令如下:

llamafactory-cli webchat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如:

llamafactory-cli webchat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 
在这里插入图片描述


当然也可以从模型训练完的chekcpoint启动webchat,跟chat命令差不多:

llamafactory-cli webchat \--model_name_or_path 模型名称或本地路径 \--adapter_name_or_path 训练后的路径\--template 模板名称 

2.5 api(启动 API 服务)

功能:启动 OpenAI 风格的 API 服务

最小化命令:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如执行:

llamafactory-cli api \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 

可以看到输出了如下信息:

在这里插入图片描述


浏览器访问:http://localhost:8000/docs

在这里插入图片描述


可以看到开放了3种API,分别是:

接口名称路径说明
List Models/v1/models列出当前可用的模型,用于查看可选择的模型信息
Create Chat Completion/v1/chat/completions生成聊天回复,用于对话或文本生成
Create Score Evaluation/v1/score/evaluation对模型输出进行评分或评估,用于检测生成内容质量

直接执行ListModels列出当前可用的模型,可以看见返回:

在这里插入图片描述


执行Create Chat Completion,示例请求内容如下:

{"model":"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B", "messages":[{"role":"user", "content":"你好,可以自我介绍一下吗?"}], "do_sample": true, "temperature":0.7, "top_p":0.9, "n":1, "max_tokens":512, "stream":false}

可以看到返回:

在这里插入图片描述

2.6 train(训练模型 )

功能:启动训练流程,对模型进行微调

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

2.7 eval(评估模型 )

功能::对训练后的模型进行性能评估

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

2.8 export(导出模型 )

功能:合并 LoRA 适配器并导出最终模型

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

3. 总结

本文详细介绍了 LLaMA-Factory 的命令行工具 llamafactory-cli 的常用功能,包括版本检查、命令行聊天、网页聊天、可视化界面、API 服务,以及训练、评估、导出等核心操作。

  • 可以先从 chat / webchat 开始,快速体验模型效果;
  • 如果需要部署服务,建议使用 api 模式;
  • 完整训练流程中,train → eval → export 是必经的三个步骤。

通过灵活使用这些命令,大家可以快速搭建起属于自己的大模型微调与应用环境 。

Read more

【笔记】Trae+Andrioid Studio+Kotlin开发安卓WebView应用

【笔记】Trae+Andrioid Studio+Kotlin开发安卓WebView应用

文章目录 * 简介 * 依赖 * 步骤 * AS(Andriod Studio)创建项目 * AS创建虚拟机 * TRAE CN 修改项目 * 新增按键捕获功能 * 新增WebView * WebView加载本地资源 * 在按键回调中向WebView注入JS代码 * 最终关键代码 * 吐槽 简介 使用Trae配合Andriod Studio开发一个内嵌WebView的安卓应用, 在WebView中加载本地资源, 在APP中捕获按键事件对WebView中的内容进行操作; 依赖 * Trae CN (https://www.trae.com.cn/) * Andriod Studio (https://developer.android.google.cn/studio?hl=zh-cn), 以下简称AS * 吃内存, 占用了我大约6GB内存 * 下载项目依赖和安卓虚拟机(约2GB)依赖网络 * 基础的编程知识 步骤 AS(

下载安装Microsoft Edge Webview2教程

下载安装Microsoft Edge Webview2教程

视频教程 Windows 10/11系统 Webview2安装——win10/11 Windows 7系统 Webview2安装——Win7 图文教程 官网下载最新版Webview2安装包 点击下载安装 官网地址:Microsoft Edge WebView2 | Microsoft Edge Developer 1. 进入官网,点击下载按钮 2. 点击左侧常青引导程序下载按钮 3. 在弹出的页面点击接受并下载,右上角下载管理页面在下载完成后有文件弹出 4. 在游览器下载管理页面直接点击打开文件进行软件的安装 5. 软件安装中,安装完成后无需手动点击自动弹出消失。 graph TD A[安装码尚云标签] --> B{判断安装情况} B -->|Yes| C[打开软件进行标签设计] B --&

1Panel面板下Open WebUI镜像加速实战:从ghcr.io到国内镜像站的无缝切换

1. 为什么需要镜像加速 在国内使用Docker拉取GitHub Container Registry(ghcr.io)的镜像时,经常会遇到下载速度极慢甚至完全无法连接的问题。这主要是因为ghcr.io的服务器位于海外,国内访问存在网络延迟和带宽限制。以Open WebUI为例,一个3GB左右的镜像可能需要数小时才能下载完成,严重影响开发效率。 我曾经在部署Open WebUI时就遇到过这个问题。当时尝试从ghcr.io直接拉取镜像,速度只有几十KB/s,而且经常中断。后来发现国内高校和云服务商提供了ghcr.io的镜像服务,切换到南京大学镜像源后,下载速度立刻提升到10MB/s以上,整个镜像几分钟就完成了下载。 2. 国内镜像站的选择 目前国内可用的ghcr.io镜像站主要有以下几种: 1. 南京大学镜像站(ghcr.nju.edu.cn):这是最稳定的选择之一,更新频率高,支持匿名拉取 2. 华为云镜像仓库(swr.cn-north-4.myhuaweicloud.com):提供企业级镜像服务,需要登录后使用

AI 前端到底是什么?为什么说AI前端是未来趋势?

AI 前端到底是什么?为什么说AI前端是未来趋势?

⭐ 一、AI 前端和普通前端有什么区别? 下面是一张非常直观的对比: 内容普通前端AI 前端功能核心UI 展示 + 用户交互UI 展示 + 用户交互 + 智能内容生成与后端交互调用普通 REST API调用 大模型 API / AI 服务输出形式页面固定页面可动态生成 / 布局可变化原型制作Figma → 人工写页面Figma → AI 自动生成代码前端逻辑手写逻辑部分逻辑由 AI 执行(智能体 UI)用户体验按钮 + 表单对话式 UI / 多模态交互技术要求JS / Vue / ReactJS + AI SDK + Prompt + 多模态理解能力 一句话: 👉 普通前端 = 静态 UI 👉 AI 前端 = 会思考的 UI ⭐ 二、AI 前端需要学习哪些技术? AI 前端不是新语言,而是 前端