开源大模型新王干翻GPT-4o,新技术可纠正自己幻觉,数学99.2分刷爆测试集

人工智能
Reflection 70B能力提升的关键,是采用了一种名为Reflection-Tuning的训练方法,它能够让模型反思自己生成的文本,在最终确定回应前检测并纠正自身推理中的错误。

开源大模型王座突然易主,居然来自一家小创业团队,瞬间引爆业界。

新模型名为Reflection 70B,使用一种全新训练技术,让AI学会在推理过程中纠正自己的错误和幻觉。

图片

比如最近流行的数r测试中,一开始它犯了和大多数模型一样的错误,但主动在<反思>标签中纠正了自己。

图片

在官方评测中,70B模型全面超越最强开源Llama 3.1 405B、GPT-4o、Claude 3 Opus、Gemini 1.5 Pro,特别是数学基准GSM8K上直接刷爆,得分99.2%

这个结果也让OpenAI科学家、德扑AI之父Noam Brown激情开麦:

GSM8K得分99%!是不是可以正式淘汰这个基准了?

图片

模型刚刚上线网友就把试玩挤爆了,对此Meta还主动支援了更多算力。

图片
图片

在网友测试中,Reflection 70B能回答对GSM8K数据集中本身答案错误的问题:

我向模型提供了GSM8K中存在的5个“ground_truth”本身就不正确的问题。

模型没有重复数据集中的错误答案,而是全部回答对了,这很令人印象深刻,表明那99.2%的准确率并非来自于记忆测试集

图片

数各种r都不在话下,连生造词“drirrrngrrrrrnnn”中有几个r也能被正确数对。

图片

网友纷纷对小团队做出的开源超越顶流闭源感到惊讶,现在最强开源模型可以在本地运行了。

图片

关键70B还只是个开始,官方表示下周还会发布更大的Reflection 405B

预计405B性能将大幅优于Sonnet和GPT-4o。

图片

Reflection 70B权重已公开,API访问将于今天晚些时候由Hyperbolic Labs提供。

模型能自我反思纠正错误

目前关于Reflection 70B的更多细节如下。

Reflection 70B能力提升的关键,是采用了一种名为Reflection-Tuning的训练方法,它能够让模型反思自己生成的文本,在最终确定回应前检测并纠正自身推理中的错误。

图片

训练中的数据来自使用GlaiveAI平台生成的合成数据。

图片

Reflection 70B基于Llama 3.1 70B Instruct,可以使用与其它Llama模型相同的代码、pipeline等从Reflection Llama-3.1 70B进行采样。

它甚至使用了标准的Llama 3.1聊天格式。

不过,Reflection 70B引入了一些特殊tokens,结构化输出过程。

图片

如下面这个例子所展示的,规划过程分为一个独立的步骤,这样做可以提高CoT效果,并保持输出精炼:

图片

模型将从在<thinking>和</thinking>标签内输出推理开始,一旦对其推理感到满意,就会在<output>和</output>标签内输出最终答案。

所以它能够将其内部思考和推理与最终答案分离。

在<thinking>部分,模型可能会输出一个或多个<reflection>标签,这表明模型发现了其推理中的错误,并将在提供最终答案之前尝试纠正该错误。

系统提示如下:

You are a world-class AI system, capable of complex reasoning and reflection. Reason through the query inside tags, and then provide your final response inside tags. If you detect that you made a mistake in your reasoning at any point, correct yourself inside tags.
(你是一个世界级人工智能系统,能够进行复杂的推理和反思。在标签内对查询进行推理,然后在标签内提供你的最终回应。如果你发现自己在任何时候推理出错,请在标签内纠正自己。)

图片

此外值得一提的是,基准测试中,所有基准都已通过LMSys的LLM Decontaminator检查污染,隔离了<output>部分,并单独对这一部分进行测试。

使用Reflection 70B的时候,官方还分享了小tips:

  • 初步建议参数temperature为.7 , top_p为.95
  • 为提高准确性,最好附加“Think carefully.”在Prompt末尾

官方还表示,下周会发布一份报告,详细介绍模型训练过程和发现。

Agent创业团队打造

Reflection 70B的背后是一支小团队,由HyperWriteAI的CEO Mutt Shumer带领。

图片

领英显示,Mutt Shumer是一位连续创业者,毕业于美国锡拉丘兹大学,现任OthersideAI的联合创始人兼CEO。

图片

OthersideAI是一家AI应用公司,致力于通过大规模AI系统开发全球最先进的自动补全工具,也是HyperWrite的幕后公司。

HyperWrite是一个浏览器操作agent,可以像人一样操作谷歌浏览器来完成一系列任务,比如订披萨:

图片

和gpt-llm-trainer一样,你只需要用文字描述目标,它就会一边列步骤,一边执行。

刚推出时号称“比AutoGPT强”。

图片

HyperWrite还可以在谷歌扩展程序中安装。

另外,Mutt Shumer高中时期就创立了Visos,致力于开发用于医疗用途的下一代虚拟现实软件。

还创立了FURI,这是一家旨在通过创造高性能产品并以公平的价格销售它们来颠覆体育用品行业的公司。

图片

虽然有Meta支持,但目前打开试玩,还是:暂时无法访问。

图片

感兴趣的童鞋可以先码住了~

https://reflection-playground-production.up.railway.app/ 

参考链接:
[1]https://huggingface.co/mattshumer/Reflection-Llama-3.1-70B

[2]https://x.com/mattshumer_/status/1831767014341538166
[3]https://x.com/polynoamial/status/1831798985528635806
[4]https://x.com/degeneratoor/status/1831809610451448196
[5]https://x.com/kimmonismus/status/1831772661296345333

责任编辑:武晓燕 来源: 量子位
相关推荐

2024-05-15 17:34:15

2024-09-06 13:00:29

2024-10-17 13:30:00

2024-02-07 12:39:00

AI数据

2024-10-17 14:05:34

2024-08-09 12:50:02

2024-06-21 09:58:38

2024-09-02 08:30:00

大模型AI

2024-08-14 12:54:46

2024-05-14 11:29:15

2024-06-05 13:09:26

2024-09-14 09:31:00

2024-06-27 12:45:30

2024-08-14 14:30:00

AI训练

2023-06-01 12:46:46

GPT-4数学OpenAI

2024-05-21 13:07:38

2024-06-18 12:54:39

2024-05-21 12:23:17

2024-06-05 08:29:35

2024-05-28 08:25:09

点赞
收藏

51CTO技术栈公众号