当前位置: 首页 > backend >正文

xVerify:推理模型评估的革新利器,重塑LLM答案验证格局?

在大语言模型(LLM)蓬勃发展的今天,推理模型不断涌现,但如何精准评估其回答的正确性却成了难题。本文提出的xVerify或许能带来转机。它是专为推理模型评估设计的高效答案验证器,表现卓越。想知道它是如何做到的吗?让我们一探究竟。

论文标题
xVerify: Efficient Answer Verifier for Reasoning Model Evaluations
来源
arXiv:2504.10481v1 [cs.CL] 14 Apr 2025
https://arxiv.org/abs/2504.10481

代码

https://github.com/IAAR-Shanghai/xVerify

文章核心

研究背景

随着思维链(CoT)提示法的出现以及OpenAI的o1模型等推理模型的兴起,LLM在复杂任务上的表现提升,但模型输出包含冗长推理过程,这给现有评估方法带来巨大挑战。

研究问题

  1. 现有评估方法难以从推理模型的冗长输出中准确提取最终答案,比如面对复杂数学推理过程中的中间结果和冗余信息时,无法精准定位最终答案。
  2. 对于LLM输出答案与参考答案的等价判断存在困难,像不同形式但语义等价的答案(“alpha”与“α” 、“1000”与“(10^3)” )难以有效识别。
  3. 目前缺乏专门针对客观问题推理评估的有效自动方法,规则基评估框架和基于LLM的判断方法都存在各自的局限性。

主要贡献

  1. 构建VAR数据集:收集19个LLM在24个评估基准上的答案样本,经过多轮GPT-4o和人工审核标注,为训练和评估推理任务的判断模型提供了高质量数据。
  2. 提出xVerify验证器:设计出xVerify这一高效答案验证器,并发布多个微调版本。它能处理复杂推理痕迹,支持多种等价检查,对格式错误有容忍性,适用于多种任务类型。
  3. 全面验证有效性:在测试集和泛化集上与多种现有评估框架和判断模型进行对比评估,充分验证了xVerify的有效性和适用性,即便最小版本xVerify-0.5B-I也表现出色。

方法论精要

1. 任务形式化定义:将评估LLM对客观问题回答正确性的任务形式化为一个4元组 ( Q , R , A r e f , E ) (Q, R, A_{ref }, E) (Q,R,Aref,E)。其中 Q Q Q是问题集合, R R R是LLM生成的响应集合, A r e f A_{ref } Aref是参考答案集合, E E E是评估函数,根据最终答案与参考答案的匹配情况返回0或1。在提取最终答案时,通过定义评分函数$ S $衡量候选答案与问题的相关性,选取得分最高的候选答案作为最终答案;在等价比较阶段,针对数学表达式自然语言答案符号表示分别定义了归一化函数和比较函数,综合判断最终答案与参考答案是否等价。

2. VAR数据集构建

  • LLM响应生成:挑选19个主流LLM和24个多语言数据集,涵盖多种难度和领域。依据问题和答案格式,将数据集分为选择题数学题简答题分类题四类。设计8种不同的提示模板,生成191,600个问答样本,确保数据集的多样性和覆盖度。
  • 数据集划分:构建训练集、测试集和泛化集。训练集和测试集从15个LLM在17个评估集生成的样本中选取,分布相似;泛化集则来自7个未用于训练和测试的评估集,由19个LLM生成,包含4个新模型,以测试模型在不同分布数据上的泛化能力。
  • 数据标注:对三个数据集进行多轮自动和手动标注。先用GPT-4o进行两轮标注,对于训练集中较难的数学问题和标注不一致的样本进行人工标注,测试集和泛化集则全部人工标注,保证标注的准确性。
  • 数据增强:针对不同题型采用不同策略。选择题进行选项索引变换和噪声注入;数学题基于参考答案和LLM响应生成等价表达式,并对最终答案语句进行多样化变换;通过这些方法,扩展了数据集的表达空间,提升了模型对不同答案格式的适应性。

3. 模型训练:利用VAR数据集的训练集,采用LLaMA-Factory框架和QLoRA技术训练14个不同参数规模和架构的模型。设置训练轮数为1,学习率为(1e - 4) 等超参数,涵盖5个不同系列的基础模型,如LLaMA 3、Qwen2.5等,以全面评估xVerify方法的泛化能力。

实验洞察

  1. 测试集评估结果:在VAR测试集上评估xVerify、多种评估框架和判断模型。评估框架方面,DeepSeek Math Verify和OpenCompass表现相对较好,但F1分数和准确率均未超80%,且部分框架不适用某些题型。判断模型中,GPT-4o和CompassJudger总体表现出色,但CompassJudger-1-32B在数学题上表现不佳,较小版本的模型性能更低。相比之下,xVerify表现卓越,xVerify-0.5B-I除了在与GPT-4o as Judge (CoT)的比较中稍逊一筹外,在总体性能上超越其他所有方法;xVerify-3B-Ib在各项评估指标上均超越其他所有方法。
  2. 泛化集评估结果:在VAR泛化集上,xVerify模型总体性能略有下降,但F1分数和准确率下降均小于1.5%,仍优于其他所有方法。评估框架的总体F1分数和准确率大多低于80%,OpenCompass的总体准确率最高,为70%以上。判断模型中,除GPT-4o外,其他模型在数学题上F1分数大多低于50%,GPT-4o在数学题上F1分数也未超90%,且使用CoT后性能未提升。xVerify-0.5B-I超越除GPT-4o外的所有评估方法,xVerify-3B-Ib超越基于CoT的GPT-4o方法,且较大参数规模的xVerify模型在泛化集上性能下降更少,泛化性能更强
  3. 综合评估:全面评估14个xVerify模型在测试集和泛化集上的性能,测试xVerify和其他判断模型的计算效率以及GPT-4o作为判断模型的评估成本。结果显示,xVerify模型在使用成本和评估效率上均优于其他判断模型,所有xVerify模型的总体平均运行时间在100秒以内,而其他判断模型大多超过100秒;xVerify模型的评估成本也显著低于GPT-4o

本文由AI辅助完成。

http://www.xdnf.cn/news/2237.html

相关文章:

  • OpenFeign 快速开始
  • C++:string 1
  • YTJ笔记——FFT、NCC
  • Maven的聚合工程与继承
  • Pygame动画实战:让游戏角色动起来!
  • Java24 抗量子加密:后量子时代的安全基石
  • 华为盘古OS深度评测:构建AI自进化系统的实践密码
  • 第一性原理 | 从哲学本源到多领域实践的探索与应用
  • 腾讯二面:TCC分布式事务 | 图解TCC|用Go语言实现一个TCC
  • MyBatis 常用扩展组件详解(含代码示例)
  • 有源晶振与无源晶振详解:区别、应用与选型指南
  • 计算机视觉中的二值马尔科夫随机场
  • 代码随想录算法训练营第五十九天 | 1.ford算法精讲 卡码网94.城市间货物运输
  • 长短板理论——AI与思维模型【83】
  • 如何在 Windows 10 中使用 WSL 和 Debian 安装 Postgresql 和 Postgis
  • Vue3的内置组件 -实现过渡动画 TransitionGroup
  • 计算机二级MS Office第九套演示文稿
  • 隐私守护者的觉醒——大数据时代,我们如何对抗“透明人”危机?
  • 单链表专题(1)
  • 豆包,Kim,deepseek对比
  • Java——令牌技术
  • Oracle EBS 零金额的AP付款无法过账数据修复
  • 蓝桥杯赛场反思:技术与心态的双重修炼
  • 基于libdxfrw库读取样条曲线并离散为点
  • 在Linux虚拟机下使用vscode,#include无法跳转问题
  • 前端开发中shell的使用场景
  • 部署yolo到k230教程
  • cloud项目同一个服务,执行不同业务需求,nacos进行分组
  • 数据结构之单链表C语言
  • 论人际关系发展的阶段