GPT-4 开始内测 32000 输入长度的版本了!你收到邀请了吗?

人工智能
32k 的 GPT-4 看起来确实是离我们越来越近了,那么 32k 的 GPT-4 会带来什么样的想象力的改变呢?毕竟它的价格比 8k 版本的 GPT-4 贵了两倍,并且有可能会有更慢的响应时间……

 夕小瑶科技说 原创
 作者 | 小戏、ZenMoore

要说现在 GPT-4 最大的问题是什么?可能除了一时拿他没有办法的机器幻觉,就是卡死的输入长度了吧。尽管在一般的对话、搜索的场景里目前普通版本 GPT-4 的 8000 左右的上下文长度或许绰绰有余,但是在诸如内容生成、智能阅读等方面当下基础版的 GPT-4 还是有些捉襟见肘。

然而在 GPT-4 的发布会里也谈到,事实上 GPT-4 是支持 32768 个 token 长度的,只是暂时还没有被完全释放,而是会陆续自动更新。而这两天,32k GPT-4 的曙光似乎马上就要来了!不少 GPT-4 的用户已经可以在自己的 PlayGround 上看到 GPT-4 32k 的选项。

图片

在 API 里,也可以通过指定 GPT-4-32K 的 Model 来对升级版进行调用

图片

但是,这应该仍然是 GPT-4 对部分用户的内测,并且应该不是按申请 waitlist 的时间来发布内测名额,收到 32k 版本内测的用户是在 3 月 16 日加入的 waitlist,但也有同样时间加入的用户没有解锁 32k 的版本。一个可能的原因是收到内测版本的用户曾经在注册时强调了对 32k GPT-4 极大的兴趣。

图片

当然,不管怎样,32k 的 GPT-4 看起来确实是离我们越来越近了,那么 32k 的 GPT-4 会带来什么样的想象力的改变呢?毕竟它的价格比 8k 版本的 GPT-4 贵了两倍,并且有可能会有更慢的响应时间……

图片

一个例子是对话机器人,当上下文长度扩展到 50 页以后,那么就可以极大的避免比如因为滑出了 8k 窗口而带来的复杂的嵌入问题。又如对如论文、研报等大量复杂信息的提取与解读,目前必须通过结构化的方法对资料进行拆分再逐步进行提取,而 32k 的上下文长度则可以一举省去这些麻烦。再比如推特博主 Matt Shumer 做的一个小测试,通过提供给 GPT-4 32k 一份代码样例,几秒钟内它就完成了一套完整的测试案例,这对工程而言也非常具有颠覆性。

图片

在 OpenAI 之外,也有开源模型开放了甚至更大上下文长度的大规模语言模型。这个名为 MPT-7B (也称做 Llongboi) 在这个月 5 号发布,这个花费了 20 万美元训练的 Llongboi 最大的亮点在于支持 64k 的上下文,可以服务于内容生成、聊天等多种场景。

图片

博客地址:https://www.mosaicml.com/blog/mpt-7b

项目链接:https://github.com/mosaicml/llm-foundry

当然,开源项目的性能及稳定性肯定无法比肩 GPT-4,既然已经陆陆续续开始有人收到了 32k 的 GPT-4 的邀请,相信它必然很快就会和我们见面,那就让我们“Hopefully it picks up the pace”吧!

图片


责任编辑:武晓燕 来源: 夕小瑶科技说
相关推荐

2023-03-16 19:17:57

2023-06-19 08:19:50

2023-03-15 07:49:57

GPT-4ChatGPT

2023-05-05 10:17:00

计算机开源

2023-08-25 13:12:59

AI开源

2024-03-04 08:33:41

GPT-4硅谷开源

2023-12-10 15:24:32

AI圣诞

2023-03-28 13:01:20

GPT-4开发OpenAI

2023-05-03 20:53:48

2024-01-01 22:28:52

2024-03-22 13:33:00

AI模型

2023-04-06 16:09:46

程序员AI

2023-08-15 15:03:00

AI工具

2023-03-28 08:23:38

2023-11-24 09:00:00

2023-03-30 08:03:29

代码GPT-4编辑器

2024-05-21 12:23:17

2023-04-09 16:17:05

ChatGPT人工智能

2023-04-24 15:41:27

ChatGPT人工智能

2012-03-12 13:47:05

移动广告
点赞
收藏

51CTO技术栈公众号