当前位置: 首页 > news >正文

DoRA详解:从LoRA到权重分解的进化

DoRA​​是一种用于​​大语言模型(LLM)微调​​的技术,全称为 ​​"Weight-Decomposed Low-Rank Adaptation"​​(权重分解的低秩自适应)。它是对现有微调方法(如 ​​LoRA​​)的改进,旨在更高效地调整模型参数,同时减少计算资源消耗。

论文链接:https://arxiv.org/pdf/2402.09353

​1. 概括​

​2. 详解

overview of DoRA

  • 核心思想​​:DoRA 通过​​分解预训练模型的权重矩阵​​,将其拆分为​​幅度(magnitude)​​和​​方向(direction)​​两部分,分别进行低秩(low-rank)调整。这种分解方式能更精细地控制参数更新,提升微调效果。

  • ​与 LoRA 的关系​​:

    • ​LoRA(Low-Rank Adaptation)​​:通过在原始权重旁添加低秩矩阵(而非直接修改权重)来微调模型,减少参数量。

    • ​DoRA​​:在 LoRA 基础上引入​​权重分解​​,进一步优化参数更新的方向和幅度,提高训练稳定性。

1. 权重矩阵分解

输入与目标​

  • ​输入​​:预训练权重矩阵 W_0\in \mathbb{R}^{d\times d}(蓝色矩形)。
  • 目标​​:将 W_0分解为​​幅度(Magnitude) m 和​​方向(Direction) V

✅分解操作

1.1 计算幅度m

m=\left \| W_0 \right \|_c\in \mathbb{R}^{d\times d}

  • \left \| \cdot \right \|_c​表示矩阵的 ​​C范数​​(具体可能是列范数或Frobenius范数,需根据上下文确定)。

  • 幅度 m 是标量或对角矩阵(图中浅绿色矩形),表示权重的整体缩放因子。

1.2 计算方向V

 

V=\frac{W_0}{\left \| W_0 \right \|_c}\in \mathbb{R}^{d\times d}

  • 方向V(浅黄色矩形)是归一化后的权重矩阵,保留原始权重的“方向”信息。

1.3 验证分解​

  • 重构公式:

    W_0=m\cdot \frac{V}{\left \| V \right \|}_c=\left \| W_0 \right \|_c\cdot \frac{W_0}{\left \| W_0 \right \|}_c
    
  • 说明:分解后可通过幅度和方向重新组合得到原始权重,确保数学等价性。

  • V的范数 \left \| V \right \|_c=1(单位范数)。

2. 微调训练

2.1 方向矩阵V的低秩适应(LoRA)

  • 低秩分解​
    • 对方向矩阵V应用标准 LoRA:
      • \bigtriangleup V=BA\in \mathbb{R}^{d\times d}
      • 其中A\in \mathbb{R}^{d \times r},B\in \mathbb{R}^{r\times d}, r\ll d
    • A和 B是​​可训练的低秩矩阵​​(绿色矩形),r为秩(超参数)。
  • ​更新方向矩阵​
    • 微调后的方向矩阵:
      • V'=V+\bigtriangleup V=V+BA

​2.2 幅度m的训练​

  • 幅度m直接作为​​可训练参数​​(绿色矩形),通过梯度下降调整。

    • W'=m\cdot \frac{V}{\left \| V \right \|_c}=m\cdot \frac{V+BA}{\left \| V+BA \right \|_c}
    • 通过归一化确保方向矩阵的单位性。
  • ​可训练参数​​:

    • 低秩矩阵 A、B(方向调整)。

    • 幅度 m(全局缩放调整)。

  • ​冻结参数​​:

    • 原始方向 V(仅用于初始化,不更新)。

3. 代码

伪代码如下

import torch
import torch.nn as nnclass DoRALayer(nn.Module):def __init__(self, d, r):super().__init__()# 初始化预训练权重 W0self.W0 = nn.Parameter(torch.randn(d, d))# 分解为幅度和方向self.m = nn.Parameter(torch.norm(self.W0, dim=0))  # 幅度(可训练)self.V = self.W0 / torch.norm(self.W0, dim=0)      # 方向(冻结)# LoRA 参数self.A = nn.Parameter(torch.randn(d, r))self.B = nn.Parameter(torch.zeros(r, d))def forward(self, x):V_prime = self.V + torch.matmul(self.B, self.A)  # V + BAV_prime_norm = torch.norm(V_prime, dim=0)W_prime = self.m * (V_prime / V_prime_norm)       # 合并权重return torch.matmul(x, W_prime.T)

4. 总结​

DoRA 的核心是通过​​权重分解 + 低秩适应​​,实现对预训练模型更精细的微调。其操作流程清晰分为两步:

  1. ​分解​​:提取权重的幅度和方向。

  2. ​微调​​:用 LoRA 调整方向,独立训练幅度。

    这种方法在保持参数效率的同时,提升了模型微调的灵活性和性能。

 

http://www.xdnf.cn/news/1219105.html

相关文章:

  • coze 开源版 coze-studio 配置域名 处理上传问题 教程
  • JAVA后端开发:使用 MapStruct 实现 Java 对象映射
  • uni-app用css编写族谱树家谱树
  • USRP捕获手机/路由器数据传输信号波形(下)
  • Java试题-选择题(2)
  • Python爬虫07_Requests爬取图片
  • 如何将照片从 realme 手机传输到电脑?
  • 设计模式之代理模式
  • 网关 + MDC 过滤器方案,5分钟集成 日志 traceid
  • React中的this绑定
  • node.js之Koa框架
  • Linux Flathub软件管理方法 使用指南
  • [12月考试] E
  • 进程控制:从创建到终结的完整指南
  • 【Django】-1- 开发项目搭建
  • MongoDB系列教程-第四章:MongoDB Compass可视化和管理MongoDB数据库
  • 抓大鹅小游戏微信抖音流量主小程序开源
  • HUD抬头显示器-杂散光测试设备 太阳光模拟器
  • AI学习笔记三十三:基于Opencv的单目标跟踪
  • 对git 熟悉时,常用操作
  • day36 力扣1049.最后一块石头的重量II 力扣494.目标和 力扣474.一和零
  • 【LeetCode 热题 100】4. 寻找两个正序数组的中位数——(解法一)线性扫描
  • [论文阅读] 人工智能 + 软件工程 | KnowledgeMind:基于MCTS的微服务故障定位新方案——告别LLM幻觉,提升根因分析准确率
  • SFT最佳实践教程 —— 基于方舟直接进行模型精调
  • 构型空间(Configuration Space,简称C-space)
  • 全基因组关联分析(GWAS)中模型参数选择:MLM、GLM与FarmCPU的深度解析
  • 数据库中使用SQL作分组处理01(简单分组)
  • 【worklist】worklist的hl7、dicom是什么关系
  • 学以致用——用Docker搭建ThinkPHP开发环境
  • 深入探索Weaviate:构建高效AI应用的数据库解决方案