当前位置: 首页 > news >正文

自我奖励语言模型:突破人类反馈瓶颈

核心思想

自我奖励语言模型提出了一种全新的语言模型对齐范式。传统方法如RLHF或DPO依赖人类反馈数据训练固定的奖励模型,这使模型的能力受限于人类标注数据的质量和数量。论文作者认为,要实现超人类能力的AI代理,未来的模型需要突破人类反馈的瓶颈。该研究创新地将奖励模型功能整合到语言模型本身,使模型能够通过评估自己的输出进行持续自我改进,形成良性循环。

方法设计

自我奖励语言模型融合了两种关键能力:指令遵循和自我指令创建。在指令遵循方面,模型能够针对用户请求生成高质量回答;在自我指令创建方面,模型能够生成新的指令示例并评估回答质量。这种自我评估通过"LLM-as-a-Judge"机制实现,即将响应评估任务转化为指令遵循任务。

研究者设计了一个迭代训练框架:从一个种子模型开始,每次迭代包括两个阶段:自我指令创建和指令遵循训练。在自我指令创建阶段,模型生成新提示,为每个提示生成多个候选回答,然后用同一个模型评估这些回答。在指令遵循训练阶段,基于评分构建偏好对,通过DPO训练下一代模型。这种设计使奖励模型不再是固定的外部组件,而是模型自身能力的一部分,可以随训练共同进步。

实验设计与数据集说明

研究者使用Llama 2 70B作为基础模型,从Open Assistant数据集获取种子数据。实验中使用的主要数据集和模型定义如下:

数据集

  1. IFT数据集(指令微调数据)

    • 来源于Open Assistant数据集中的高质量人类标注示例
    • 包含3200个指令-回答对,用于教导模型如何按照指令生成回答
    • 这是传统语言模型微调的基础数据
  2. EFT数据集(评估微调数据)

    • 从Open Assistant数据集构建的评估任务数据
    • 包含1630个训练样本,教导模型如何作为评判者评估回答质量
    • 使用特定的LLM-as-a-Judge提示模板,引导模型学习累加式5分制评分标准
    • 这是赋予模型自我评估能力的关键数据

模型序列

  • M₀:未经微调的原始Llama 2 70B模型
  • M₁:使用IFT+EFT种子数据进行监督微调的模型,同时具备指令遵循和回答评估的基础能力
  • M₂:以M₁为基础,使用M₁生成并评估的数据(AIFT(M₁))通过DPO训练的模型
  • M₃:以M₂为基础,使用M₂生成并评估的数据(AIFT(M₂))通过DPO训练的模型

这种设计使得每次迭代,模型不仅能够利用前一代模型的评估能力生成更好的训练数据,而且这种评估能力本身也在迭代过程中得到改进。这是自我奖励方法的核心创新——打破了传统RLHF中固定奖励模型的限制。

实验结果

指令遵循能力提升

下表展示了不同迭代模型在头对头评估中的性能:

对比自我奖励模型胜平局SFT基线胜
自我奖励M₃ vs. SFT基线62.5%27.7%9.8%
自我奖励M₂ vs. SFT基线49.2%36.3%14.5%
自我奖励M₁ vs. SFT基线30.5%38.7%30.9%
对比左模型胜平局右模型胜
自我奖励M₃ vs. M₂47.7%39.8%12.5%
自我奖励M₂ vs. M₁55.5%32.8%11.7%
自我奖励M₃ vs. M₁68.8%22.7%8.6%

这些结果表明,随着迭代次数增加,模型的指令遵循能力显著提升。M₁与SFT基线性能相当,但M₂明显优于基线,M₃进一步加强了这种优势。此外,后期迭代模型总是优于前期迭代模型,证明自我奖励方法确实能够带来持续改进。

AlpacaEval 2.0排行榜表现

模型胜率(vs. GPT-4 Turbo)
自我奖励70B
第1次迭代(M₁)9.94%
第2次迭代(M₂)15.38%
第3次迭代(M₃)20.44%
精选排行榜模型
GPT-4 031422.07%
Mistral Medium21.86%
Claude 217.19%
Gemini Pro16.85%
GPT-4 061315.76%
LLaMA2 Chat 70B13.87%

在AlpacaEval 2.0排行榜上,M₃模型以20.44%的胜率超过了Claude 2、Gemini Pro和GPT-4 0613等强大模型,体现了自我奖励方法的强大潜力。

不同指令类别的性能改进

以下是自我奖励模型在不同指令类别上的胜率提升:

类别M₀M₁M₂M₃
健康19%19%30%31%
专业/商业19%19%28%28%
娱乐15%16%26%27%
技术10%15%20%23%
文学9%9%10%22%
科学6%7%14%22%
旅行7%13%15%21%
数学15%9%10%12%
烹饪0%1%2%7%

细粒度分析显示,自我奖励模型在大多数指令类别上都有明显改进,但在数学和烹饪等任务上改进有限,说明当前方法主要帮助模型更好地利用其已有知识。

奖励模型能力提升

评估指标SFT基线M₁M₂M₃
成对准确率(↑)65.1%78.7%80.4%81.7%
5分最佳率(↑)39.6%41.5%44.3%43.2%
完全匹配率(↑)10.1%13.1%14.3%14.3%
Spearman相关(↑)0.2530.2790.3310.349
Kendall τ相关(↑)0.2330.2530.3150.324

模型的奖励评估能力也随迭代显著提高。添加EFT数据使模型评估能力明显提升(M₁ vs SFT基线),随后的迭代(M₂和M₃)进一步增强了这种能力,表明模型不仅变得更擅长遵循指令,也变得更擅长评估回答质量。

MT-Bench性能

模型总体数学和推理人文/STEM/角色扮演/写作
SFT基线6.853.938.60
M₁6.783.838.55
M₂7.014.058.79
M₃7.254.179.10

MT-Bench结果显示,自我奖励模型在多轮对话任务上也有改进,尤其在人文、STEM、角色扮演和写作等类别上提升显著,而在数学和推理任务上提升相对较小。

研究意义

自我奖励语言模型开创了一个新范式,让模型可以通过持续自我评估来超越人类反馈的限制。这种方法只需少量人类标注的种子数据,就能通过迭代自我改进达到竞争性能。尤为重要的是,这种方法打破了固定奖励模型的约束,使指令遵循能力和评估能力能够相互促进,形成真正的自我对齐。

随着自我奖励模型的进一步发展,我们或许能看到AI系统能力的不断提升,而不再受限于人类反馈的天花板。然而,当前方法对数学推理等任务的改进仍有限,表明该方法主要帮助模型更好地利用已有知识,而非获得新的复杂推理能力,这为未来研究指明了方向。

原文链接

https://arxiv.org/pdf/2401.10020v3

http://www.xdnf.cn/news/427159.html

相关文章:

  • WebGIS开发面试题:前端篇(六)
  • 【递归、搜索与回溯】专题一:递归(二)
  • electron 基础知识
  • 软考软件评测师——计算机组成与体系结构(分级存储架构)
  • 当三维地理信息遇上气象预警:电网安全如何实现“先知先觉”?
  • 项目中会出现的css样式
  • MQTT协议详解:物联网通信的轻量级解决方案
  • JMeter同步定时器 模拟多用户并发访问场景
  • Qt进阶开发:QTcpSocket的详解
  • Leetcode 3542. Minimum Operations to Convert All Elements to Zero
  • APISQL免费版安装教程(视频)
  • java刷题基础知识
  • 【Folium】使用离线地图
  • 我的MCP相关配置记录
  • Cursor 编辑器 的 高级使用技巧与创意玩法
  • JavaScript异步编程 Async/Await 使用详解:从原理到最佳实践
  • 基于RT-Thread的STM32F4开发第三讲——DAC
  • 基于TI AM6442+FPGA解决方案,支持6网口,4路CAN,8个串口
  • 《ffplay 读线程与解码线程分析:从初始化到 seek 操作,对比视频与音频解码的差异》
  • Vue 3.5 :新特性全解析与开发实践指南
  • MQTT 协议详解:物联网通信的利器
  • 【Unity】WebGL开发问题汇总
  • 专栏项目框架介绍
  • 【Redis】谈谈Redis的设计
  • 网安学途—流量分析 attack.pcap
  • 【TS入门笔记8---了解JSX】
  • G1在GC的时候会占用内存吗?占用的是分配的内存还是分配外的内存
  • JS Map使用方法
  • Linux上的rm和srm 命令
  • Femap许可网络配置