GPT-4惨遭削弱,偷懒摸鱼绝不多写一行代码,OpenAI已介入调查

人工智能
网友所述,似乎从11月6日GPT-4大更新起,就开始出现这种情况了。目前有OpenAI员工出面回应,表示已将问题反馈给团队。

GPT-4再次遭网友“群攻”,原因是“懒”得离谱!

有网友想在Android系统开发一个能够与OpenAI API实时交互的应用。

于是把方法示例链接发给GPT-4,让它参考用Kotlin语言编写代码:

图片

没成想,和GPT-4一来二去沟通半天,GPT-4死活给不出一个能正常运行的完整代码

反而解释了一通“应该怎么做”。

这让网友着实恼火,发推文吐槽“两周前能写好的代码,现在却不行了”。

图片

结果一下子炸出来更多网友:

终于有人调查这事儿了。

图片

大伙儿连连表示遇到了类似问题:

图片

据网友所述,似乎从11月6日GPT-4大更新起,就开始出现这种情况了。

目前有OpenAI员工出面回应,表示已将问题反馈给团队。

只要代码,完整代码!

也难怪网友会“破防”,就说上面网友把方法示例链接发给GPT-4,让它用Kotlin语言编写代码之后。

GPT-4给出的回复是这样婶儿的,足足列了7条步骤,都在解释“应该怎么做”:

图片

直到最后才给出代码,但只是一个基础“模版”:

图片

网友起初还比较有耐心,告诉它“不需要解释,只要给我代码,完整的代码,能100%正常运行的代码”:

图片

结果GPT-4张口又在解释、举例子:

图片

网友气不打一处来,直接打断它,并再次强调“不要解释,给我代码”:

图片

GPT-4这下可是真真明白了,把上面那个模版稍微改动了一下,就发出来了:

图片

这才有了开头的一幕,网友无奈发帖吐槽。

图片

对于GPT-4的回复,网友“怒吼”了一句:他们都对你做了什么?抱歉你被削弱了。

图片

GPT-4此刻也是一脸无辜🥺。

陆陆续续出来吐槽的网友中,更有甚者表示已经不用ChatGPT了。

图片

AI图像编辑器dingboard CEO@kache (yacine)在前一天也发帖吐槽,浏览量达157000+:

在过去的一个半星期里,我一直在编写“幼稚”的代码,因为GPT-4不那么遵循指令了。

图片

巧了不是,如果按网友所说的“一个半星期”来算,时间还和奥特曼·真还传事件吻合了。

图片图片

kache (yacine)还有一条帖子满满都是情绪,“请把旧的GPT-4还给我”:

图片

这位网友表示“我懂你”:

以前它能做出很好的猜测,现在它会给我十个理由解释为什么它不能做出好的猜测。

上周,我对着聊天框大喊“f*ing do it!!”的次数创下历史新高。

图片

一时间,GPT-4的“懒惰”成为众多网友“讨伐”对象。

沃顿商学院教授Ethan Mollick也看不下去了,亲自上手测试了一下,结果似乎表明这是真的。

图片

Ethan Mollick重复了一系列之前用代码解释器(Code Interpreter)做过的分析。

图片

GPT-4虽然知道该怎么做,但会一直提示“去完成工作”。导致原本的一个步骤变成了许多步骤,而且有些步骤很奇怪。

图片

这下Ethan Mollick也是无语住了。

GPT-4到底是怎么了?背后原因还不得而知,网友们也是纷纷猜测起来。

OpenAI员工:已反馈给团队

Ethan Mollick还是很严谨,认为即便如此也不足以证明GPT-4变得越来越笨了,他推测这可能是系统负载过高的暂时问题。

图片

如果你是在手机(移动设备)上遇到了这种问题,那可能是因为手机版系统提示的原因,会指示ChatGPT生成更简短精要的答案。

我的测试是在网页版进行的。

图片

Reddit上也有人发文讨论,其中有一篇帖子指出“并不是新版GPT-4懒,只是我们用错了”:

图片

文中指出,GPT-4自本月6号进行了一次大更新后,基础版本没有自定义提示,这就导致GPT-4没有预定义的“路径”来指导其行为。

这让它非常通用,但默认设置下它的输出也有些“无方向”。

解决办法之一,就是使用更新后提供的自定义GPT新功能(GPTs),为每项工作设置一个专门的GPT。

也相继有网友分享“小妙招”:

新版GPT-4改变游戏规则的一点是它能一次性解释的代码量。明确地说出类似“请完整地写出这个测试”的指令,可能会有用。

同时,明确指出“不要重写已经写过的代码”也很有帮助,这样可以节省token,让模型专注于产生新的输出。

我还发现,加入“一步一步思考”的提示会在开始时增加一些计划性的文本,这有助于后续输出更好地定位上下文。

图片

但也有网友表示自己在用的时候,无论如何都会留下一些“待办事项”:

图片

这位网友更是直言GPT-4现在像是得了老年痴呆:

OpenAI暗示的是新版GPT-4非常善于遵循指令,但事实并非如此。

我从一开始就一直在使用GPT-3、3.5再到后来的4,从未见过这种程度的阿尔茨海默症。

图片

在网友的激烈吐槽下,OpenAI员工也出面回应。

起初是让网友们提供一些具体的例子,说是研究一下,很有可能在下次模型版本迭代中修补这些问题。

图片

此话一出,炸出更多网友“上报故障”。

图片

will depue再次回应:

感谢反馈,在这里的所有示例都会帮助我们更快地解决这个问题。我刚刚将其转发给团队,后续消息会及时通知。

图片

看来官方后续回应还要再等一波,家人们最近有遇到类似情况吗?

参考链接:
[1]https://twitter.com/erhartford/status/1729566883350012038。

[2]https://chat.openai.com/share/38e5ec71-a155-4d92-a85c-4b9e598a07fb。
[3]https://x.com/emollick/status/1729358803425001702?s=20。

责任编辑:姜华 来源: 量子位
相关推荐

2023-12-09 14:30:50

2024-01-26 15:25:27

GPT-4人工智能大模型

2023-12-09 13:24:40

OpenAIChatGPT人工智能

2023-04-09 16:17:05

ChatGPT人工智能

2023-07-07 09:32:57

GPT-4OpenAI

2023-10-08 13:11:00

训练数据

2024-06-28 13:40:03

2023-12-17 22:04:04

微软GPT-4

2024-05-28 14:40:00

2023-08-06 08:06:30

OpenAIChatGPTGPT-4

2023-03-16 17:28:59

技术AI

2023-03-15 08:44:58

2023-06-19 08:19:50

2019-12-25 14:08:50

Pandas数据计算

2023-03-16 08:13:56

人工智能​OpenAI

2023-07-24 14:26:58

OpenAIGPT-4Karpathy

2016-12-02 08:53:18

Python一行代码

2024-05-21 12:23:17

2024-05-14 07:30:52

OpenAIGPT-4模型

2021-01-06 09:53:57

拼多多员工加班
点赞
收藏

51CTO技术栈公众号