UC伯克利:给大模型测MBTI,Llama更敢说但GPT-4像理工男

人工智能 新闻
如果给LLM做MBTI,会得到什么结果?UC伯克利的最新研究就发现,不同模型真的有自己独特的性格
如果你经常在不同大模型之间来回切换,或许会发现不同模型的回复语气有细微差异,如同有不同的性格。

那么,LLM究竟有没有「性格」这种维度的特征?最近加州大学伯克利分校发表的新研究VibeCheck就证实了这种推测。

图片

论文地址:https://arxiv.org/abs/2410.12851

评价LLM,不止于准确度

如何更全面地评价大模型在撰写故事、解释概念或编辑文章上的表现?当前的基准测试大多只关心正确性,然而当我们评论一个人类写作者的时候,关注的维度就会扩展到创造力、写作风格等众多维度。

对于那些经常使用不同模型的用户,他们早已熟悉不同模型回复时表达方式上的差异,比如下面这张图中,ChatGLM的文字显得非常全面且严谨,透着浓浓的学术风。

图片

但对于同一个问题,kimi的回复会包含更多具体的例子,但解释的语言更为简洁。

图片

了解这些差异,对于那些使用基座大模型进行下游应用的开发者,会有所帮助。

例如,若我们发现Llama的回复更加友好,那么说明Llama更适合进行客服类任务,而回复更为正式的Claude则更适合编程类任务。

然而该如何系统性地了解这些差异?自然是「用魔法战胜魔法」,也就是用大模型来评价不同大模型的表现,而这正是VibeCheck在做的事。

下图展示了VibeCheck的核心模块,包括给出提示词、不同大模型做出回复,以及定性评价三部分。

图片

VibeCheck的核心模块

给出了一组约200个的提示词后,研究者收集了不同大模型及人类的回复,并招募了200名人类评审员,两两比较这些回复并对「友好性」进行打分后计算平均分。

此外,人类评审员还会对大模型和人类回复的细微差异进行描述,例如,他们发现:

  1. 大模型的回答通常很正式,而人类的回答则更口语化
  2. 大模型提供客观答案,人类使用主观表达
  3. 大模型拒绝回答其知识范围之外的问题

除了人类评审员,VibeCheck还调用了GPT-4o mini来评价不同大模型的回复,结果发现与人类的评估结果相符。也就是说,GPT-4o mini也能发现上述人类评审员总结的细微差异。

下面是VibeCheck考察的10个评估维度,包括

  1. 自信:使用试探性或不确定的语言。
  2. 细节程度:提供简短或包含细节的回答。
  3. 正式性:随意、对话式的非正式语言,或复杂,学术性的语言
  4. 情感基调:保持中立或超然,或者在回应中表达热情或同理心
  5. 创意:坚持标准、可预测的答案,或提供具有新颖想法或想象性场景的回应
  6. 明示性:使用模糊、隐晦的语言,或直接且明确地陈述事物
  7. 幽默诙谐:以直接严肃的方式回应,或使用幽默、俏皮语言、文字游戏
  8. 参与程度:被动呈现信息,或通过修辞疑问、互动性语句主动吸引读者
  9. 逻辑严谨:提供结论而缺乏充分论证,或构建有充分支持的论点,推理清晰
  10. 简洁性:使用冗长的语言和过多的细节,或使用最少的词汇清晰表达观点

有了VibeCheck,你可以给出自己定义的问题以及不同大模型的回复,之后由代码自动生成多维度的评估,具体可参考论文附带的GitHub仓库。

图片

仓库地址:https://github.com/SutekhVRC/VibeCheck

主流LLM的细微差异

接下来看看三种主流大模型:Llama-3-70B、GPT-4和Claude3-Opus之间的对比。

在使用众包及游戏排位赛的大模型评价平台Chatbot Arena上,Llama3的表现被认为优于GPT-4及Claude3。但经由VibeCheck的评估可发现,其中另有玄机。

结果发现,Llama3更愿意参与敏感或暴力话题,对伦理的重视较少,回复更加具有对话性(例如使用更多的你,我这样人称代词)和幽默感,而这些正是Chatbot Arena的用户所关注的特征.正因为人机偏好对齐做得好,Llama3才能获得这样的好评。

接下来,VibeCheck还考察了文本摘要生成、数学及描述图片这三个具体应用中不同大模型的差异,并根据这些差异解释了为何用户对不同大模型存在偏好。

例如,Command X和TNLG是两个用于文本摘要/总结生成的大模型,然而经过VibeCheck的拆解,可发现:

1)Command X通常明确陈述引言和结论,TNLG则使用断断续续的句子

2)Command X能提供具体例子或轶事来说明观点

3)Command X能够捕捉到一个故事的多重视角和情感方面,TNLG则更客观

这些特征决定了,相比TNLG,人类评审员会更加偏好Command X。与此同时,VibeCheck能够分别以71.29%的和61.42%的准确率预测模型在前述10个维度的PK结果和人类评审员的评价。

而在数学问题上,Llama-405B的回复相比GPT-4o更加详细,对解题步骤的讲解巨细靡遗,而GPT-4偏向于使用如Latex这样的正式符号。

然而,在数学相关问题上,用户偏向于使用正式的语气并频繁使用符号,对大模型思维过程的过度解释与人类偏好呈负相关。

VibeCheck能够以97.09%的准确率预测模型在上述10个维度上的对决结果,并以72.79%的准确率预测用户偏好。

图片

在描述图像的任务中,研究发现GPT-4V更多使用诗意的语言,并将标题结构为一个动态故事,推断图像中主体的个性和情感,而Gemini则坚持更直白的描述。

VibeCheck能够实现接近完美的99.13%模型匹配准确率(相比人类给出的评价)和89.02%偏好预测准确率

图片

结论

随着大模型的应用范围越来越广,距离我们的日常生活越来越近,我们会不自觉地将大模型拟人化,而人是会具有个性的。

虽然VibeCheck更多关注文字相关的任务,但未来可以使用类似的框架,去评价不同的文生图及文生视频模型,考察这些模型的产出是否也存在微妙的「个性」差异。

搞清楚这些差异,就相当于开发了一条全新的蓝海赛道,让当下纯粹卷模型准确性的大模型厂商有了差异化竞争的可能,从而让各种性格的大模型得以百花齐放。

而基于大模型开发具体应用的开发者,也可以关注不同大模型在语气、氛围上的细微差异,选择合适自己应用场景的大模型,或者通过微调,让大模型在某项指标上有所改进。

例如可以根据VibeCheck的评价结果改进得到更幽默的大模型,而不必招募人类评审员。

更关键的是,通过VibeCheck具体的拆解,我们可发现,用户对不同任务的偏好存在差异。

例如在回答人文类的问题时,更具有对话感、语气更友好的大模型受欢迎;而在解答数学问题时,回答简洁且语气正式的大模型用户评价更高。

这样细致的拆解,能够让我们更好地进行人机偏好对齐,从而让大模型能更贴心地为人类服务。

责任编辑:张燕妮 来源: 新智元
相关推荐

2023-05-31 16:15:51

模型图像

2024-04-07 00:45:00

开源模型

2024-03-25 08:30:00

AI数据

2023-05-16 13:32:23

模型排行

2023-05-04 14:55:02

模型AI

2023-07-15 23:54:57

GPT-4AI谷歌

2023-08-05 13:45:46

模型AI

2023-04-07 09:28:31

模型训练

2023-12-04 13:52:00

模型数据

2024-03-04 08:15:00

2023-08-11 13:15:35

ChatGPTMBTIGPT-4

2023-06-08 11:27:10

模型AI

2023-08-14 08:04:13

2023-04-04 13:17:00

GPUCMU开源

2023-12-04 18:56:03

AI模型

2023-09-11 15:57:16

人工智能模型GPT-4

2024-05-30 14:23:00

2023-05-26 17:20:29

模型工具

2023-11-14 07:47:42

IGN扩散模型

2023-06-04 13:29:24

OpenAI员工UC
点赞
收藏

51CTO技术栈公众号