OpenAI 最新研究:当前 AI 模型仍无法媲美人类程序员

人工智能
人工智能模型将能够超越“低级别”软件工程师,但该公司研究人员的最新研究却表明,即使是目前最先进的 AI 模型,仍无法与人类程序员相媲美。

2 月 24 日消息,尽管 OpenAI 首席执行官萨姆・奥尔特曼(Sam Altman)坚称,到今年年底,人工智能模型将能够超越“低级别”软件工程师,但该公司研究人员的最新研究却表明,即使是目前最先进的 AI 模型,仍无法与人类程序员相媲美。

研究人员在一篇新论文中指出,即使是前沿模型 —— 即那些最具创新性和突破性的 AI 系统 ——“仍然无法解决大多数”编程任务。为此,研究人员开发了一个名为 SWE-Lancer 的新基准测试工具,该工具基于自由职业者网站 Upwork 上的 1400 多个软件工程任务。通过这一基准测试,OpenAI 对三款大型语言模型(LLMs)进行了测试,分别是其自身的 o1 推理模型、旗舰产品 GPT-4o,以及 Anthropic 公司的 Claude 3.5 Sonnet。

具体而言,这一新基准测试评估了这些 LLMs 在处理 Upwork 上的两类任务时的表现:一类是个体任务,涉及修复漏洞并实施修复措施;另一类是管理任务,要求模型从更宏观的角度做出更高层次的决策。值得注意的是,在测试过程中,这些模型被禁止访问互联网,因此它们无法直接抄袭网上已有的类似答案。

这些模型所承担的任务在 Upwork 上的价值累计可达数十万美元,但它们仅能解决一些表面的软件问题,却无法在大型项目中真正找到漏洞及其根源。这种“半成品”的解决方案,对于与 AI 有过合作经验的人来说并不陌生 ——AI 擅长输出听起来自信满满的信息,但在仔细审查时往往漏洞百出。

尽管论文指出,这三款 LLMs 通常能够“远快于人类”地完成任务,但它们却无法理解漏洞的广泛性及其背景,从而导致解决方案“错误或不够全面”。

研究人员解释称,Claude 3.5 Sonnet 的表现优于另外两款 OpenAI 模型,并且在测试中“赚取”的金额也超过了 o1 和 GPT-4o。然而,其大多数答案仍然是错误的。研究人员指出,任何模型若想被真正用于实际编程任务,都需要具备“更高的可靠性”。

简而言之,该论文似乎表明,尽管这些前沿模型能够快速地处理一些细节任务,但它们在处理这些任务时的技能水平,仍远远不及人类工程师。

尽管近年来这些大型语言模型取得了快速的发展,并且未来还会继续进步,但它们目前在软件工程领域的技能水平仍不足以取代人类。然而IT之家注意到,这似乎并未阻止一些首席执行官解雇人类程序员,转而使用这些尚未成熟的 AI 模型。

责任编辑:庞桂玉 来源: IT之家
相关推荐

2025-01-02 13:41:53

2024-10-30 14:50:00

系统语音模型

2021-03-05 15:58:45

AI 数据人工智能

2022-11-14 10:04:36

AI模型

2023-09-26 01:27:09

AI程序员软件

2024-04-15 11:48:09

2022-02-07 08:50:00

AI奥数模型

2022-12-28 13:57:56

AI模型语言

2024-11-13 12:48:30

2023-06-05 13:55:09

AI研究

2025-02-10 09:20:00

2019-04-29 10:38:13

程序员AI辅助编程

2015-03-13 09:45:27

2024-03-18 09:22:43

AI模型

2024-07-25 12:31:06

2025-02-21 11:08:46

2020-09-21 14:25:26

Google 开源技术

2018-05-29 22:38:49

AI程序员代码

2015-07-27 09:26:41

程序员

2019-01-16 18:11:28

程序员技能开发者
点赞
收藏

51CTO技术栈公众号