AI 写的内容已难以辨别,语言学专家也束手无策

人工智能
近日美国南佛罗里达大学的一项研究表明,AI 生成的文字内容可能已经无法与人类写的区分开来。研究作者邀请了一些语言学专家参与了这个项目,他们都是世界顶级语言学期刊的专家,但即使是这样的专业人士,也发现很难识别出 AI 写的内容。总的来说,他们只能正确区分出 39% 的情况。

9 月 10 日消息,2023 年是人工智能的一年,从聊天机器人 ChatGPT,到 AI 创作的歌曲参加格莱美奖,再到好莱坞的演员和编剧抗议大制片公司过度使用自动化技术,人工智能已无处不在。

IT之家注意到,近日美国南佛罗里达大学的一项研究表明,AI 生成的文字内容可能已经无法与人类写的区分开来。研究作者邀请了一些语言学专家参与了这个项目,他们都是世界顶级语言学期刊的专家,但即使是这样的专业人士,也发现很难识别出 AI 写的内容。总的来说,他们只能正确区分出 39% 的情况。

南佛罗里达大学世界语言系的学者马修・凯斯勒与孟菲斯大学应用语言学助理教授 J.埃利奥特・卡萨尔合作,让 72 名语言学专家审阅一系列研究摘要,并判断哪些是由人类写的,哪些是由 AI 生成的。具体来说,每位参与的专家必须检查四个写作样本。结果没有一个专家能够正确识别所有四个样本,有 13% 的专家全部答错了。

基于这些结果,研究作者不得不得出结论:大多数现代教授都无法区分学生自己写的内容和 AI 生成的内容。研究者推测,在不久的将来可能需要开发软件来帮助教授识别 AI 写的内容。

语言学专家们试图使用一些理由来判断写作样本,例如识别某些语言和风格特征。然而,最终这些方法基本上都失败了 —— 导致整体正确识别率只有 38.9%。

总之,凯斯勒和卡萨尔都得出结论:像 ChatGPT 这样的聊天机器人确实可以像大多数人类一样(甚至在某些情况下更好地)写出短篇文章。AI 通常不会犯语法错误。然而,研究作者指出,在长篇写作方面,人类仍然占据优势。

“对于长文本,AI 已经被证明会产生幻觉和虚构内容,使得更容易识别出它是由 AI 生成的。”凯斯勒总结说。

凯斯勒希望这项工作能够促进人们的讨论,关注在研究和教育领域使用 AI 时建立明确的道德和指导原则的迫切需要。该研究发表在《应用语言学研究方法》杂志上。

责任编辑:姜华 来源: IT之家
相关推荐

2024-09-02 14:40:00

AI模型

2011-05-10 11:48:31

2019-05-13 16:08:30

苹果iMessage垃圾短信

2017-08-22 15:35:48

2023-02-09 13:59:07

2020-06-22 07:47:46

提交面试官订单

2017-05-12 13:54:18

2020-10-09 08:34:57

AI

2009-09-08 11:03:14

微软LinuxLinux操作系统

2020-02-27 10:49:26

HTTPS网络协议TCP

2010-06-04 15:57:03

PHP+MYSQL

2011-09-08 11:35:18

2019-03-11 15:06:54

WiFi安全无线

2021-12-01 18:36:35

属性

2022-07-05 11:06:55

人工智能自然语言计算机

2022-08-27 15:19:21

网络安全黑客数字经济

2012-06-15 10:35:19

2013-04-23 16:48:55

GPT分区CentOS

2011-08-22 14:10:51

nagios

2022-09-13 15:54:01

MITAI模型数据集
点赞
收藏

51CTO技术栈公众号