当前位置: 首页 > news >正文

【学习笔记1】一站式大语言模型微调框架LLaMA-Factory

学习地址:https://llamafactory.cn/

学习文档:https://llamafactory.readthedocs.io/en/latest/getting_started/installation.html

github:https://github.com/hiyouga/LLaMA-Factory


图片

LLaMA-Factory(Large Language Model Factory)是一个开源的、专注于大型语言模型(LLM)微调与部署的框架,由北航团队开发并维护。它通过提供低代码操作界面、丰富的算法支持以及硬件优化技术,显著降低了大模型定制化开发的技术门槛,广泛应用于智能客服、医疗诊断、法律助手等场景。

1. 核心功能与技术亮点

  1. 多模型兼容性
    • 支持主流开源模型:LLaMA(包括LLaMA-2、LLaMA-3)、BLOOM、Mistral、Baichuan、Qwen、ChatGLM等。

    • 扩展性:未来计划支持Gemma、Phi-3等新架构,进一步拓宽模型适配范围。

  2. 微调算法全覆盖
    • 基础微调

      全参数微调(32-bit精度)、冻结微调(16-bit精度)。

    • 高效微调

      LoRA(低秩适配)、QLoRA(4-bit量化+LoRA),显存占用降低至单卡消费级GPU(如RTX 3090)即可训练7B/13B模型。

    • 强化学习

      PPO(近端策略优化)、DPO/ORPO(偏好对齐训练),提升模型与人类需求的契合度。

    • 领域适配

      增量预训练、指令监督微调(SFT),支持医疗、法律等垂直领域数据注入。

  3. 硬件优化与训练加速
    • 量化技术

      基于AQLM/AWQ/GPTQ的2-8比特QLoRA微调,显存消耗减少。

    • 分布式训练

      兼容PyTorch、DeepSpeed、FSDP,支持单机多卡/多机多卡并行计算。

    • 混合精度

      FP16/BF16计算类型适配不同GPU架构(如NVIDIA V100与AMD A10系列)。

  4. 数据集与流程管理
    • 内置数据集

      包含Alpaca、ShareGPT等指令数据集,支持零代码直接调用。

    • 自定义数据集

      用户可上传JSON/CSV格式数据,框架自动处理分块与Token对齐。

    • 标准化流程

      模型选型→数据加载→参数配置(学习率、批次大小)→训练监控(损失曲线)→效果评估(BLEU、ROUGE)。

  5. 实验监控与评估
    • 实时监控

      集成TensorBoard、MLflow等工具,可视化训练指标。

    • 自动评估

      内置ROUGE分数计算,衡量模型输出与标准答案的相似度。

    • 快速迭代

      支持梯度检查点、动态分块技术,缩短调试周期。

2. 环境安装

CUDA 是由 NVIDIA 创建的一个并行计算平台和编程模型,它让开发者可以使用 NVIDIA 的 GPU 进行高性能的并行计算。首先,在 https://developer.nvidia.com/ cuda-gpus 查看您的 GPU 是否支持CUDA。

1.保证当前 Linux 版本支持CUDA. 在命令行中输入 uname -m && cat /etc/*release,应当看到类似的输出

x86_64
DISTRIB_ID=Ubuntu 
DISTRIB_RELEASE=22.04

    2.检查是否安装了 gcc . 在命令行中输入 gcc --version ,应当看到类似的输出:

      gcc (Ubuntu 11.4.0-1ubuntu1~22.0411.4.0

      3.在以下网址下载所需的 CUDA,这里推荐12.2版本。 https://developer.nvidia.com/cuda-gpus 注意需要根据上述输出选择正确版本,如果您之前安装过 CUDA(例如为12.1版本),需要先使用 sudo /usr/local/cuda-12.1/bin/cuda-uninstaller 卸载。如果该命令无法运行,可以直接:

        sudorm-r/usr/local/cuda-12.1sudo apt clean && sudo apt auto clean

        卸载完成后运行以下命令并根据提示继续安装:

          wget https://developer.download.nvidia.com/compute/cuda/12.2.0/local_installers/cuda_12.2.0_535.54.03_linux.run sudo sh cuda_12.2.0_535.54.03_linux.run

          ../_images/image-20240610221819901.png

          3. LLaMA-Factory 安装

          运行以下指令以安装 LLaMA-Factory 及其依赖:

            git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.gitcd LLaMA-Factorypip install -e ".[torch,metrics]"

            如果出现环境冲突,请尝试使用 pip install --no-deps -e . 解决

            4. LLaMA-Factory 校验

            完成安装后,可以通过使用 llamafactory-cli version 来快速校验安装是否成功。如果您能成功看到类似下面的界面,就说明安装成功了。

            ../_images/image-20240611002529453.png

            5.其它环境包

            图片

            http://www.xdnf.cn/news/176743.html

            相关文章:

          • Vue2 与 Vue3 深度对比与技术解析
          • 黑马点评redis改 part 6
          • 一周学会Pandas2 Python数据处理与分析-Pandas2数据信息查看操作
          • 语音识别质量的跟踪
          • 力扣HOT100之链表:23. 合并 K 个升序链表
          • 树状数组单点操作+前缀K差分->区间K操作 -#131-#132
          • SpringBoot + SSE 实时异步流式推送
          • Linux内核中的编译时安全防护:以网络协议栈控制块校验为例
          • mAh 与 Wh:电量单位的深度解析
          • 【Pandas】pandas DataFrame rtruediv
          • 全网直播推介会,九识智能与申通快递达成全面战略合作
          • 20.压敏电阻的特性与使用注意事项
          • RuoYi-Vue项目Docker镜像构建、推送与部署完整流程
          • 云平台+MQTT+C#上位机+单片机通信
          • 在 UniApp 中实现 App 与 H5 页面的跳转及通信
          • lightrag : from lightrag.utils import EmbeddingFunc 报错
          • 04.通过OpenAPI-Swagger规范让Dify玩转Agent
          • 【Redis】set类型
          • JavaEE-多线程实战02
          • AI如何重塑CC防护行业?五大变革与实战策略解析
          • 【创新实训个人博客】multi-agent调研(2)
          • promis(resolve,reject)入门级别
          • 互联网大厂Java面试:从Spring Boot到微服务架构的实践与挑战
          • 智诚科技苏州SOLIDWORKS授权代理商的卓越之选
          • vite.config.ts 的详细配置项说明、完整代码示例及表格总结
          • 代码随想录算法训练营day12(二叉树)
          • javaScript--数据结构和算法
          • 轮转数组(中等)
          • 如何优雅地解决AI生成内容粘贴到Word排版混乱的问题?
          • 从“世界工厂”到“智造之都”:双运放如何改写东莞产业基因?