微软打造 13 亿参数小型 LLM AI 模型,号称实际效果胜于千亿参数 GPT-3.5

人工智能
微软团队表示,比起增加模型的参数量,通过提高模型的训练数据集质量,也许更能强化模型的准确率和效率,于是,他们利用高质量数据训练出了 phi-1 模型。在测试中,phi-1 的分数达到 50.6%,比起 1750 亿参数的 GPT-3.5(47%)还要好。

6 月 27 日消息,AI 模型盲堆体积实际上效果并不见得更好,更多要看训练数据的质量,微软日前最近发布了一款 13 亿参数的语言模型 phi-1,采用“教科书等级”的高品质资料集训练而成,据称“实际效果胜于千亿参数的 GPT 3.5”

▲ 图源 Arxiv

IT之家注意到,该模型以 Transformer 架构为基础,微软团队使用了包括来自网络的“教科书等级”数据和以 GPT-3.5 经过处理的“逻辑严密的内容”,以及 8 个英伟达 A100 GPU,在短短 4 天内完成训练。

▲ 图源 Arxiv

微软团队表示,比起增加模型的参数量,通过提高模型的训练数据集质量,也许更能强化模型的准确率和效率,于是,他们利用高质量数据训练出了 phi-1 模型。在测试中,phi-1 的分数达到 50.6%,比起 1750 亿参数的 GPT-3.5(47%)还要好

▲ 图源 Arxiv

微软表示,phi-1 接下来会在 HuggingFace 中开源,而这不是微软第一次开发小型 LLM,此前,他们打造一款 130 亿参数的 Orca,使用了 GPT-4 合成的数据训练而成,表现也同样比 ChatGPT 更好。

目前关于 phi-1 的论文已经在 arXiv 中发布,可以在这里找到论文的相关内容

责任编辑:姜华 来源: IT之家
相关推荐

2024-03-28 11:15:36

开源AI

2023-12-12 13:57:00

GPT-3.5MistralAI

2023-03-15 10:26:00

模型开源

2024-04-23 13:10:41

数据训练

2023-07-22 13:09:51

模型开源

2023-03-28 09:38:10

2009-04-10 23:31:15

2023-08-23 12:17:26

OpenAIChatGPT

2024-07-04 15:32:13

2024-07-19 09:26:12

2023-03-14 13:45:14

模型AI

2023-08-23 12:02:49

数据OpenAIGPT-3.5

2023-12-13 09:47:38

微软人工智能

2023-04-28 09:07:28

2023-06-21 13:37:41

模型研究

2023-12-13 12:55:39

模型数据

2024-02-05 09:00:00

2024-01-30 21:18:57

模型智能CMMLU

2023-08-23 08:54:59

OpenAIGPT-3.5

2023-08-06 08:06:30

OpenAIChatGPTGPT-4
点赞
收藏

51CTO技术栈公众号