大模型训练:LLaMA-Factory快速上手

第1步:安装环境

git clone https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory # 推荐使用 conda conda create -n llama-factory python=3.10 conda activate llama-factory pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 pip install -r requirements.txt pip install -e ".[torch,metrics]"
⚠️ 注意:推荐使用 CUDA 环境,GPU 显存建议 ≥24GB(如 3090/4090)

第2步:准备数据

支持多种格式,最常用的是 Alpaca 格式 JSON 文件

[{"instruction":"写一首关于春天的诗","input":"","output":"春风拂面花自开,柳绿桃红映山川..."},{"instruction":"解释什么是机器学习","input":"","output":"机器学习是让计算机从数据中自动学习规律的技术..."}]

📌 存为 my_data.json,放在 data/ 目录下。


第3步:启动训练-多GPU(以 LoRA 微调 Qwen-7B 为例)

参考examples/accelerate 下面的文件,准备自己的yaml文件

compute_environment: LOCAL_MACHINE debug: false distributed_type: MULTI_GPU downcast_bf16:'no' gpu_ids:0,1,2,3 machine_rank:0 main_training_function: main mixed_precision: fp16 num_machines:1 num_processes:4 rdzv_backend:static same_network: true tpu_env:[] tpu_use_cluster: false tpu_use_sudo: false use_cpu: false main_process_port:29503

启用多GPU训练

#!/bin/bashCUDA_VISIBLE_DEVICES=4,5,6,7 accelerate launch --config_file config.yaml ../src/train.py \ --stage sft \ --do_train True\ --template qwen3 \ --finetuning_type lora \ --model_name_or_path ../Qwen/Qwen3-0.6B \ --dataset_dir ./vehicle_control_dataset \ --dataset my_data \ --output_dir ./saves \ --overwrite_cache \ --overwrite_output_dir \ --cutoff_len 1024\ --per_device_train_batch_size 1\ --per_device_eval_batch_size 1\ --gradient_accumulation_steps 8\ --lr_scheduler_type cosine \ --max_grad_norm 1.0\ --logging_steps 10\ --save_steps 200\ --warmup_steps 0\ --learning_rate 5e-5 \ --num_train_epochs 3.0\ --max_samples 100000\ --fp16 True \ --lora_rank 8\ --lora_dropout 0.1\ --lora_target all \ --plot_loss True 

Read more

用闲置Mac Mini部署OpenClaw(moltbot)实现你的专属金融AI分析师

用闲置Mac Mini部署OpenClaw(moltbot)实现你的专属金融AI分析师

在数字时代,每个人都需要一个24小时在线的智能工作伙伴。如果你恰好有一台闲置的Mac Mini,只需几个小时,就能将它变身为一个具备专业金融分析能力的AI助手。本文将手把手带你完成整个部署过程,让你拥有一个能对话、能分析、能监控的私人数字员工。 一、为什么选择Mac Mini+OpenClaw? 核心优势对比 传统方式Mac Mini+OpenClaw方案需要购买云服务器,持续付费利用闲置硬件,零额外硬件成本数据存储在第三方平台数据完全私有,存储在本地功能固定,难以定制可通过技能商店无限扩展功能需要专业技术维护一次性部署,长期稳定运行 特别是对于金融从业者、投资者以及对市场信息敏感的用户,这个方案能提供: * 7×24小时市场监控与预警 * 自然语言驱动的专业分析 * 完全私有的数据环境 * 可扩展的金融工具集成 二、完整部署流程图 graph A[开始部署] --> B{选择设备方案}; B --> C[闲置Mac Mini]; B --> D[

Skill 构建指南:从零打造 AI 智能体扩展包

Skill 构建指南:从零打造 AI 智能体扩展包 引言 在人工智能时代,如何让智能体具备更强的专业能力和更丰富的工作流程?答案就是 Skill——一种为智能体设计的能力扩展包。本文将详细介绍如何从零开始构建符合规范的 Skill,让你的创意变成可分发的工具。 什么是 Skill? 核心定位 Skill 是被智能体加载和执行的能力扩展包,而非独立运行的应用程序。 执行模式 * Skill 在智能体的会话上下文中被动态加载 * 智能体读取 SKILL.md 的指导,调用 scripts/ 中的脚本,参考 references/ 中的文档 * Skill 的所有交互都通过智能体与用户的对话完成 Skill 提供的能力 * ✅ 专门工作流程(多步骤程序与条件逻辑) * ✅ 工具集成(文件格式与 API 的使用方式) * ✅ 领域专家知识(公司或系统特有的架构与逻辑) * ✅ 打包资源(脚本、参考、资产) Skill

手机也能跑大模型?QNN框架实战:从零部署LLaMA-7B到Android的完整避坑指南

手机也能跑大模型?QNN框架实战:从零部署LLaMA-7B到Android的完整避坑指南 最近在跟几个做移动端AI应用的朋友聊天,大家普遍有个痛点:现在大模型这么火,但一提到在手机上本地运行,第一反应就是“不可能”——内存不够、算力太弱、延迟太高。这让我想起几年前做移动端图像识别,也是从“这玩意儿能在手机上跑?”的质疑开始的。现在,随着端侧推理框架的成熟,特别是像QNN(Qualcomm Neural Network SDK)这类专门为移动和边缘设备优化的工具链出现,让手机本地运行一个7B甚至13B参数的大语言模型,已经从“技术演示”变成了“工程可实现”的目标。 这篇文章,我想从一个移动端开发者的实际视角出发,抛开那些泛泛而谈的API介绍,聚焦于一个核心问题:如何把一个像LLaMA-7B这样的“大家伙”,真正塞进一部普通的Android手机里,并且让它能流畅地跟你对话? 这个过程远不止是调用几个接口那么简单,你会遇到模型裁剪、内存峰值管理、Vulkan加速适配、量化精度权衡等一系列具体而微的“坑”。我会结合自己最近一次将LLaMA-7B-INT8模型部署到小米13上的完整实战记录,