奥赛冠军都做不对的题,却被拿来考ML模型?GPT-3:我不行

新闻 人工智能
为了衡量机器学习模型的数学求解能力,来自 UC 伯克利和芝加哥大学的研究者提出了一个包含 12, 500 道数学竞赛难题的新型数据集 MATH,以及帮助模型学习数学基础知识的预训练数据集 AMPS。

  为了衡量机器学习模型的数学求解能力,来自 UC 伯克利和芝加哥大学的研究者提出了一个包含 12, 500 道数学竞赛难题的新型数据集 MATH,以及帮助模型学习数学基础知识的预训练数据集 AMPS。研究发现,即使是大参数的 Transformer 模型准确率也很低。

许多学术研究探讨数学问题求解,但对于计算机而言这超出了其能力范畴。那么机器学习模型是否具备数学问题求解能力呢?

来自加州大学伯克利分校和芝加哥大学的研究者为此创建了一个新型数据集 MATH。该数据集包含 12, 500 道数学竞赛难题,每个数学题都有完整的逐步求解过程,可用来教机器学习模型生成答案和解释。为了促进未来研究,提升模型在 MATH 数据集上的准确率,研究者还创建了另一个大型辅助预训练数据集,它可以教模型数学基础知识。

尽管通过这些方法提升了模型在 MATH 数据集上的准确率,但实验结果表明,准确率仍然很低,即使 Transformer 模型也不例外。研究者还发现,仅靠增加预算和模型参数量并不能实现强大的数学推理能力。扩展 Transformer 能够自动解决大多数文本任务,但目前仍无法解决 MATH 问题。

该研究第一作者 Dan Hendrycks 发推表示:

国际数学奥林匹克竞赛(IMO)三金得主能达到 90% 的准确率,而 GPT-3 的准确率只能达到约 5%。

如果这一趋势持续下去,那么机器学习模型距离获得数学推理能力还很遥远。

奥赛冠军都做不对的题,却被拿来考ML模型?GPT-3:我不行

数据集

这部分介绍两个新型数据集,一个是用于测试模型数学问题求解能力的 MATH 数据集,另一个是用于辅助预训练的 AMPS 数据集。

MATH 数据集

MATH 数据集包含 12, 500 个数学问题(其中 7500 个属于训练集,5000 个属于测试集),这些问题收集自 AMC 10、AMC 12、AIME 等数学竞赛(这些数学竞赛已经持续数十年,旨在评估美国最优秀的年轻数学人才的数学问题求解能力)。与大多数之前的研究不同,MATH 数据集中的大部分问题无法通过直接应用标准 K-12 数学工具来解决,人类解决这类问题通常需要用到问题求解技术和「启发式」方法。

基于这些数学问题,模型可以学习多种有用的问题求解启发式方法,且每个问题都有逐步求解过程和最终答案。具备逐步求解过程的问题示例参见下图 1:

奥赛冠军都做不对的题,却被拿来考ML模型?GPT-3:我不行

该数据集的创建涉及以下重要步骤:

问题分类:该数据集中的问题难度不同,并涉及多个主题,包括算术、代数、数论、计数与概率、几何、中级代数、预备微积分。研究者按照对人类而言从易到难的程度将问题难度等级标注为 1-5。

格式化:使用 LATEX 和 Asymptote 矢量图语言将数学问题及其解进行统一格式化。

自动评估生成的答案:MATH 数据集的独特设计使得研究者可以自动评估模型生成的答案,即使模型输出空间非常大。

人类性能:为了估计人类性能,研究者从 MATH 测试集中随机采样了 20 个问题,交由高校学生回答。一位不喜欢数学的参与者答对了 8 道题(准确率 40%),两位喜欢数学的参与者分别答对了 14 题和 15 题,一位在 AMC 10 数学竞赛中拿到满分并多次参加 USAMO 竞赛的参与者答对了 18 道题,一位 IMO 三金得主也答对了 18 道题(准确率 90%)。这说明 MATH 数据集中的数学问题对于人类而言也是有一定难度的。

AMPS 数据集(可汗学院 + Mathematica)

预训练数据会对性能产生极大影响,而数学是在线文本的一小部分,于是该研究创建了一个大型多样化的数学预训练语料库。该预训练数据集 Auxiliary Mathematics Problems and Solutions (AMPS) 包括许多问题及 LATEX 格式的逐步求解过程。

AMPS 数据集包含 10 万个收集自可汗学院的数学问题,和约 500 万通过手动设计 Mathematica 脚本生成的问题。该研究使用 Mathematica 的计算机代数系统生成数学问题,是为了便于操作分数、超越数和解析函数。

这些问题涉及多个主题,包括代数、微积分、计数与统计、几何、线性代数,以及数论(参见下表 1)。

奥赛冠军都做不对的题,却被拿来考ML模型?GPT-3:我不行

实验

模型性能

研究者通过实验调查了模型在 MATH 数据集上的性能,发现即使最优模型的准确率也很低。此外,与大多数基于文本的数据集不同,该数据集上的准确率增速随着模型规模的扩大而越来越慢。如果这一趋势继续,则要想在 MATH 数据集上取得较大进展,我们需要的不只是模型扩展,而是算法改进。

下表 2 表明,最小模型 GPT-2(0.1 billion 参数量,基线模型)在 MATH 数据集多个主题上的平均准确率为 5.4%,而 GPT-2(1.5 billion 参数量,参数量是基线模型的 15 倍)的平均准确率为 6.9%,相比基线提升了 28%。这表明与大部分其它基于文本的任务不同,在 MATH 数据集上增加模型参数确实有所帮助,但模型的绝对准确率仍然很低,且增速缓慢。

奥赛冠军都做不对的题,却被拿来考ML模型?GPT-3:我不行

此外,研究者测试了使用 AMPS 预训练的效果。未经 AMPS 预训练时,GPT-2 (1.5B) 模型在 MATH 数据集上的准确率为 5.5%;而经过 AMPS 预训练后,GPT-2 (1.5B) 在 MATH 数据集上的准确率为 6.9%(参见表 2),准确率提升了 25%。也就是说,AMPS 预训练对准确率的提升效果相当于参数量 15 倍增加的效果,这表明 AMPS 预训练数据集是有价值的。

逐步求解

研究者对逐步求解过程进行了实验,发现模型在得到答案前先生成逐步求解过程会导致准确率下降。研究者利用 GPT-2 (1.5B) 进行评估,发现模型性能有所下降,从 6.9% 下降到了 5.3%。

研究者还对这些生成的逐步求解过程进行了定性评估,发现尽管很多步骤看似与问题相关,但其实存在逻辑问题。示例参见下图 3、4:

奥赛冠军都做不对的题,却被拿来考ML模型?GPT-3:我不行

图 3:问题、GPT-2 (1.5B) 模型生成的逐步解、真值解。

奥赛冠军都做不对的题,却被拿来考ML模型?GPT-3:我不行

图 4:问题、生成解和真值解示例。

不过,研究人员发现逐步求解仍能带来一定好处:提供部分真值逐步求解过程可以提升性能,在训练过程中为模型提供逐步求解过程可以提升准确率。下图 6 展示了 GPT-2 (0.7B) 模型使用不同部分求解过程的准确率变化。

奥赛冠军都做不对的题,却被拿来考ML模型?GPT-3:我不行

 

 

责任编辑:张燕妮 来源: 机器之心Pro
相关推荐

2022-05-26 05:37:00

人工智能机器学习AI

2021-03-23 15:21:00

人工智能机器学习技术

2022-03-24 10:35:38

人工智能模型代码

2023-03-01 16:15:16

2023-04-07 09:53:02

量子AI

2021-07-19 10:56:36

GPE-3OpenAI微软

2023-06-08 15:33:31

人工智能GPT-3

2023-02-14 08:00:00

人工智能GPT-3语言模型

2021-08-12 16:27:04

模型人工智能深度学习

2021-10-28 09:19:29

模型人工智能Facebook

2022-03-30 15:20:19

AI自然语言模型

2020-09-02 10:10:37

AI 数据人工智能

2020-08-03 10:32:46

AI 数据人工智能

2022-05-05 09:00:00

AI模型数据

2020-08-21 13:22:12

GPT-3AI机器

2022-11-21 09:34:33

AI模型

2021-12-10 15:46:18

谷歌模型人工智能

2021-07-13 17:38:49

算法语言模型GPT-4

2023-03-20 10:19:25

ChatGPT数学

2023-12-04 13:38:55

模型3D可视化
点赞
收藏

51CTO技术栈公众号