Evaluation is All You Need!首个开源多模态大模型通用评测器LLaVA-Critic

人工智能 新闻 开源
LLaVA-Critic 是首个通用的开源多模态大模型评测器,能够在多个开放式多模态场景中评测模型表现。

作者介绍:本文作者来自于字节跳动和马里兰大学。其中第一作者为马里兰大学博士生熊天翼,主要研究领域为计算机视觉,多模态基础大模型;通讯作者为 Chunyuan Li (https://chunyuan.li/)。

本文作者也包括马里兰大学博士生王玺尧,字节跳动研究员 Dong Guo、Qinghao Ye、Haoqi Fan、Quanquan Gu, 马里兰大学教授 Heng Huang。

引言:Evaluation is All You Need

随着对现有互联网数据的预训练逐渐成熟,研究的探索空间正由预训练转向后期训练(Post-training),OpenAI o1 的发布正彰显了这一点。

而 Post-training 的核心在于评测(Evaluation)。可靠的 AI 评测不仅能在复杂任务的评测中提供可扩展的解决方案,减少人工劳动,还能在强化学习中生成有效的奖励信号并指导推理过程。


例如,一个 AI 评测器可以遵循用户设计的评分标准,在视觉对话任务中为不同模型的回复(model response)提供 1 到 10 的评分。除了评分外,它还会提供相应的给分理由,确保模型性能评测的透明性和一致性。


来自字节跳动和马里兰大学的研究团队发布了首个用于多任务评测的开源多模态大模型 LLaVA-Critic,旨在启发社区开发通用大模型评测器(generalist evaluator)

图片

  • 论文标题:LLaVA-Critic: Learning to Evaluate Multimodal Models
  • 论文链接:https://arxiv.org/abs/2410.02712
  • 项目主页:https://llava-vl.github.io/blog/2024-10-03-llava-critic/
  • 数据与模型开源:https://huggingface.co/collections/lmms-lab/llava-critic-66fe3ef8c6e586d8435b4af8

首先,该团队构建了一个涵盖了多样化评测场景和评分标准的评测指令遵循数据集(critic instruction-following dataset);之后,在这一数据集上训练 LLaVA-Critic,使之学会对模型回复给出合理评分(judgement)和打分依据(reason);更进一步,在多模态评测(LMM-as-a-Judge)偏好学习(preference learning)两个场景中验证了 LLaVA-Critic 的有效性。

评测指令遵循数据集

该团队首先构建了一个高质量的评测指令遵循数据集,旨在涵盖多个复杂的评测场景,根据对应的评测提示给出相应的打分和评分理由。

论文中将使用 AI 模型(如 GPT)作为评测器的开放式多模态评测任务分为两类:

1. 单点评分(pointwise-scoring):根据评测提示,对单个模型回复进行打分。

2. 成对排序(pairwise-ranking):对于两个(一对)模型回复,给出二者之间的偏序关系或宣布平局。

图片

LLaVA-Critic-113k 主要包含单点评分和成对排序两种评测设定。在两种评测中,LLaVA-Critic 均需要根据给定的图片、问题、模型回复以及评测提示中给定的评分要求,对模型回复打分并给出理由。

针对单点评分,该团队从 8 个多模态数据集中收集了输入指令(图片 - 问题),使用 13 个 LMM 生成模型回复,并汇集了 7 个常用开放式评测基准中的评测提示,由此整理得到评测样本。针对于每一条评测样本,再询问 GPT-4o 进行评测,得到判断得分与理由。

针对成对排序,该团队收集了三个偏好数据集中的模型回复,这些数据中已经包含了人类或 GPT-4V 的偏好排序结果。之后,将每一对模型回复和已知的偏序关系输入给 GPT-4o,获取其对偏序关系的解释。

在此基础上,他们设计了 30 个包含不同格式与评分标准的评测提示模板,将【图片 - 问题输入,两个模型回复,偏序关系,解释】打包成涵盖多种评测场景的评测指令遵循数据。

由此,LLaVA-Critic-113k 数据集得以构建,共计包含 46k 张图片和 113k 个评测数据样本。下图展示了具体的数据统计:

图片

LLaVA-Critic-113k 数据集的数据统计。该团队收集了广泛的输入指令与模型回复,涵盖了多个评测任务和领域。需要注意的是,以上全部数据来源于开源的指令遵循训练数据,与实际的评测基准(evaluation benchmark)没有重合。

LLaVA-Critic

首个具有通用评测能力的开源多模态大模型

为了使模型具备通用的评测能力,该团队对一个已经具备强大指令遵循能力的预训练多模态大模型进行指令微调。这一点非常关键,因为模型自身能高质量处理复杂视觉任务是其具备评测能力的基础;而评测能力则在此之上,作为附加的判别能力得到进一步开发。

在训练中,LLaVA-Critic 会接受一个评测提示(evaluation prompt),包含多模态指令输入、模型回复及可选的参考回复。它会根据评测提示中的评分标准,预测定量分数或成对排序,并给出详细的理由。

该团队对评测结果(分数或偏序关系)理由同时应用交叉熵损失进行训练。实验中,他们从 LLaVA-OneVision (OV) 7B/72B 预训练模型开始,使用 LLaVA-Critic-113k 数据集进行 1 轮微调,得到 LLaVA-Critic 模型。

场景一:多模态大模型作为评测器(LMM-as-a-Judge)

该团队首先对 LLaVA-Critic 模型在多个多模态评测任务中与 GPT-4o 以及人类的打分一致性进行了验证。

图片

在评分的整体分布和对回复模型 (response model) 的排序层面上,LLaVA-Critic 均展现了与 GPT-4o 的一致性

如上图所示,在单点评分的评估任务中,LLaVA-Critic 大幅超越其基础模型 LLaVA-OneVision—— 在多个开放式问答评估基准上,其评分一致性和模型排序与 GPT-4o 高度吻合。

图片

上表比较了不同评测器在成对排序方面与人类偏好的一致性。LLaVA-Critic-72B 在评测准确率(不包含平局)方面达到了 73.6%,已经超越了 GPT-4V/4o;在其余两个指标中也与商用的 GPT 模型差异很小。

尽管 LLaVA-Critic-7B 的模型参数大幅减少,但其在包含与不包含平局的评测准确率上仍分别达到了 59.6% 和 72.2%。这为在资源受限的环境中部署 LLaVA-Critic 提供了可行的解决方案。

图片

上表展示了 LLaVA-Critic 在 MLLM-as-a-Judge 基准测试中的表现,该测试包括了训练数据中未见过的更广泛评测场景。面对全新的评测任务,LLaVA-Critic 也显著缩小了开源模型与 GPT-4o/4V 在评测准确性上的差距,充分展现其泛化性与通用性。

在上述实验结果中,72B 模型的表现优于 7B 模型,Critic-7B 的表现也优于使用弱化版本评测数据训练的 Critic-7B(v0.5)—— 这进一步强调了模型扩展(model scaling)和数据扩展(data scaling)在构建通用评测器中的重要性。

图片

在这个成对排序示例中,LLaVA-Critic 能够准确识别输入图像的内容(手写数字 「7」),并基于回复间的差异做出判断,给出了和人类评估者一致的排序,并提供了清晰的理由说明。后者(评分理由)对于构建可靠人工智能至关重要,它使 LLaVA-Critic 的评测过程更透明,评测结果更可信。

场景二:偏好学习(Preference Learning)

LLaVA-Critic 的评测能力也可用于比较成对模型回复的好坏,从而作为奖励信号应用于 RLHF 和 DPO 等强化学习算法。实验中,该团队将 LLaVA-Critic 用于迭代直接偏好优化( iterative DPO)算法,具体方式如下:

给定一个预训练 LMM 和一组图片 - 问题输入,首先让 LMM 对每一个图片 - 问题输入随机生成 K=5 个候选回复,由此构建出 Kx (K-1)=20 个成对回复。

接着,使用 LLaVA-Critic 对这 20 个回复对进行成对排序,选出最好和最坏的回复,形成成对的反馈数据集。

之后,使用这一数据集对于预训练 LMM 进行直接偏好优化(DPO)训练。

在此基础上,渐进式迭代这一过程共计 M 轮,每次使用最新训练的模型生成候选回复,最终得到与 LLaVA-Critic 反馈对齐的模型。

该团队采用 LLaVA-OneVision 作为初始 LMM,进行 3 轮 iterative DPO 训练,最终将训练后的模型命名为 LLaVA-OneVision-Chat。随后,他们在多个开放式问答评测基准上测试了最终模型的表现,以比较 LLaVA-Critic 和其他奖励模型的效果。

如上表所示,无论是在 7B 还是 72B 基础模型上,LLaVA-Critic(AI 反馈)均超越了 LLaVA-RLHF (人类反馈),显著提升了基础模型在 6 个多模态开放式问答评测基准上的表现。

下方的柱状图进一步直观展示了 LLaVA-Critic 的反馈对 LLaVA-OneVision 模型在视觉问答性能上的提升效果。可见,LLaVA-Critic 作为一种提供有效奖励信号的可扩展方案,不仅减少了对昂贵人工反馈的依赖,还通过 AI 生成的反馈进一步优化了模型的偏好对齐效果。

图片

结论

LLaVA-Critic 是首个通用的开源多模态大模型评测器,能够在多个开放式多模态场景中评测模型表现。为实现这一目标,研究团队精心构建了一个高质量的评测指令遵循数据集,涵盖多样化的评测任务与标准。

实验中展示了 LLaVA-Critic 在两个关键领域的有效性:

1. 作为通用的评测器,LLaVA-Critic 能够为需要评测的模型回复提供单点评分和成对排序,这些评分和排序与人类和 GPT-4o 的偏好高度一致,为自动评测多模态大模型的开放式回复提供了一个可行的开源替代方案。

2. 在偏好学习方面,LLaVA-Critic 提供的偏好信号能有效提升多模态大模型的视觉对话能力,甚至超越了基于人类反馈的 LLaVA-RLHF 奖励模型。

这项工作在利用开源多模态大模型自身的评价能力方面,迈出了重要的一步。我们期待更多的研究可以由此出发,通过探究更具可扩展性的,超越人类的对齐反馈机制,进一步推动多模态大模型的发展。

责任编辑:张燕妮 来源: 机器之心
相关推荐

2022-04-27 09:33:01

EasyNLP开源框架

2024-03-25 12:30:18

AI训练开源

2024-09-10 12:11:18

2024-03-25 12:40:19

训练模型

2024-01-22 13:59:00

模型训练

2024-08-19 13:35:09

2024-06-20 10:52:27

2023-04-28 15:27:06

微软模型

2024-01-24 13:16:00

AI训练

2023-03-13 15:56:00

模型框架

2024-11-13 09:39:13

2024-12-09 09:30:00

AI模型

2024-07-04 10:13:18

2024-09-23 08:20:00

模型训练

2021-06-17 10:28:42

谷歌开源转译器

2023-08-14 07:20:10

2024-08-13 12:49:29

点赞
收藏

51CTO技术栈公众号