当前位置: 首页 > ai >正文

LLama-Factory使用教程-2025最新版

配套课程《AIGC大模型理论与工业落地实战》;Deepseek相关课程更新中

前置条件:一台可用的gpu服务器、ubuntu操作系统

1. 下载LLama-Factory

1.1. 安装anaconda或者miniconda,创建环境

bash Miniconda3-latest-Linux-x86_64.sh
conda create -n sft python=3.11
conda activate sft

1.2. 下载安装LLama-Factory

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

2. 启动LLama-Factory图形化界面

llamafactory-cli webui

3. 打开图形化界面

访问http://127.0.0.1:7860;或者”服务器IP地址+7860端口”。例如这里的是:http://180.184.146.134:7860/;打开图形化界面

4.下载模型到本地

这里以Qwen2.5-vl-7b-instruct模型为例,因为服务器是国内,从魔塔下载模型参数:

pip install modelscope
modelscope download --model Qwen/Qwen2.5-VL-7B-Instruct --local_dir /data2/users/yszhang/quickllm/qwen2.5-vl-instruct

执行上述指令后,模型参数被下载至:/data2/users/yszhang/quickllm/qwen2.5-vl-instruct文件夹:

(base) root@iv-ydg6wcq3ggay8n6dmn75:/data2/users/yszhang/quickllm/qwen2.5-vl-instruct# ll
total 16207084
drwxr-xr-x  3 root root       4096 May 13 09:36 ./
drwxr-xr-x 22 root root       4096 May 26 17:44 ../
drwxr-xr-x  3 root root       4096 May 12 16:36 .cache/
-rw-r--r--  1 root root       1050 May 12 16:36 chat_template.json
-rw-r--r--  1 root root       1374 May 12 16:36 config.json
-rw-r--r--  1 root root        216 May 12 16:36 generation_config.json
-rw-r--r--  1 root root       1519 May 12 16:39 .gitattributes
-rw-r--r--  1 root root    1671839 May 13 09:23 merges.txt
-rw-r--r--  1 root root 3900233256 May 13 09:31 model-00001-of-00005.safetensors
-rw-r--r--  1 root root 3864726320 May 13 09:36 model-00002-of-00005.safetensors
-rw-r--r--  1 root root 3864726424 May 12 17:22 model-00003-of-00005.safetensors
-rw-r--r--  1 root root 3864733680 May 13 09:31 model-00004-of-00005.safetensors
-rw-r--r--  1 root root 1089994880 May 13 09:26 model-00005-of-00005.safetensors
-rw-r--r--  1 root root      57619 May 12 16:36 model.safetensors.index.json
-rw-r--r--  1 root root        350 May 12 16:36 preprocessor_config.json
-rw-r--r--  1 root root      18574 May 12 16:36 README.md
-rw-r--r--  1 root root       5702 May 12 17:30 tokenizer_config.json
-rw-r--r--  1 root root    7031645 May 12 16:40 tokenizer.json
-rw-r--r--  1 root root    2776833 May 13 09:23 vocab.json
(base) root@iv-ydg6wcq3ggay8n6dmn75:/data2/users/yszhang/quickllm/qwen2.5-vl-instruct# 

5. 配置模型和数据

在图形化UI界面设置模型名称、模型路径和数据集,这里我以LLama-Factory中自带的多模态数据集“mllm_demo”数据集为例:

可以选择预览数据集,预览数据结构:

 

可以选择预览命令查看模型训练的实际指令,输出目录可以选择默认以时间戳命名的路径,确认没问题后点“开始”即可开始训练

 

训练时,在右下角可以实时查看loss下降的曲线,非常直观和方便:

 

6. 对话模型

训练好以后可以加载模型的lora参数,进行对话:

 

7.融合lora参数,导出模型

训练完成后,可以融合lora参数,导出作为一个新的模型。新的训练好的模型参数结构和原来的模型(例如qwen2.5-vl)结构一致。原来的模型怎么加载,新的模型就怎么加载

 

http://www.xdnf.cn/news/9576.html

相关文章:

  • [CSS3]vw/vh移动适配
  • 实时计算是什么?如何通过实时计算实现增量同步?
  • Python中使用处理数据、路径的2个方法,对应两个第三方库
  • 基于RPA技术的ECRobot企业智能体解决方案,打通企业自动化业务流程的最后一公里
  • Vim文本编辑器快捷键用法以及简单介绍
  • 【25-cv-05716】GBC代理Crye Precision军事装备商标版权维权案
  • 第J9周:Inception v3算法实战与解析
  • 华为OD机试_2025 B卷_报文响应时间(Python,100分)(附详细解题思路)
  • 区域人数异常检测算法AI智能分析网关V4构建工业/商业/工地/景区等多场景解决方案
  • 使用Nginx + Keepalived配置实现Web站点高可用方案
  • 【PhysUnits】15 类型整数基本结构体补充P1(basic.rs)
  • cs224w课程学习笔记-第12课
  • java反序列化之链子分析及利用
  • 边缘计算新基建:iVX 轻量生成模块的 ARM 架构突围
  • 程序员出海之英语-使用手册
  • Ubuntu22.04 重装后,串口无响应
  • 什么是绩效管理,如何科学实施
  • 数据标注对于模型训练的重要性
  • Python 训练营打卡 Day 38
  • 智慧场馆:科技赋能的艺术盛宴
  • Bug 背后的隐藏剧情
  • 【GESP真题解析】第 14 集 GESP 二级 2024 年 6 月编程题 1:平方之和
  • 如何提升高精度滚珠螺杆的生产效率?
  • RabbitMQ 与其他 MQ 的对比分析:Kafka/RocketMQ 选型指南(一)
  • Linux 常用命令 -md5sum【计算和校验文件的MD5哈希值】
  • web第七次课后作业--springbootWeb响应
  • 【C++基础知识】【ASAN】
  • 【207】VS2022 C++对unsigned char某一位(bit)的数据进行读写
  • dify本地部署的怎么更新新版本
  • matlab实现图像压缩编码