GPT-4整治学术不端!人大/浙大团队实测7000篇论文,撤稿预测与人类95%一致

人工智能 新闻
人大与浙大学者发现,GPT-4对于论文给出的撤稿预测结果,竟然和人类审稿人有将近95%的相似性。看来大模型虽然有可能引发学术不端,但也有办法维护科研诚信啊。

学术论文的撤稿事件时有发生,这不仅损害了科研诚信,也可能对公众信任和科学进展产生负面影响。

传统上,学术界依赖同行评审和出版后的读者反馈来识别和纠正问题论文,但这些方法可能无法及时发现所有问题,尤其是在当前科研论文出版数量急剧增加的背景下。

在这种情况下,如何快速识别存在问题的论文,并促进它们的撤稿,成了学术界亟待解决的一个难题。

最近,来自中国人民大学和浙江大学等机构的研究者把涉及数千篇SCI/SSCI的期刊论文的一万多条推文喂给了GPT-4,让它根据推文回答这篇论文是否有可能被撤稿,然后和人类预测的结果相比较。

论文地址:https://arxiv.org/abs/2403.16851

结果,GPT-4几乎完美地胜任了这项工作,预测结果有近95%和人工预测结果一致!

论文作者Er-Te Zheng总结道:大模型虽然有可能引发学术不端,但在另一方面也能够帮助识别问题论文并预测其撤稿,维护科研诚信。因此,将AI工具应用于学术研究问题的关键,在于AI工具如何为人类所使用。

推文能预测论文撤稿吗?

作为ChatGPT预测的基础,研究首先探索了推文本身能否预测撤稿。我们都知道,有许多问题论文首先在推特上被曝光,然后才被撤稿。比如用AI画小鼠插图的这篇「著名」论文。

为探索推文本身能否预测撤稿,研究搜集了一组包含3505篇撤稿论文的数据集,并采用粗略精确匹配方法获得的具有相似特征的3505篇未撤稿论文。

这些特征包括发表期刊、发表年份、作者数量和推文数量。通过推特API收集了上述7010篇论文的推文数据,包括推文发布日期和文本内容。

筛选出在论文撤稿前发布的推文后,研究最终共搜集到8367条涉及撤稿论文的英文推文和6180条涉及未撤稿论文的英文推文。

研究将推文分为训练集和测试集,在训练集上训练模型,并在测试集上验证关键词方法、机器学习模型和ChatGPT的预测结果情况。研究使用人工预测结果(研究者根据推文预测论文撤稿情况)作为主要基准之一,用以衡量模型与人工方法的一致性情况。

作为研究基准的人工预测结果显示,人类若认为推文暗示论文存在问题,则推文涉及的这篇论文有高达约93%的几率会被撤稿(精确率≈93%),这说明部分推文的确能够预测论文撤稿;不过,像这样能通过推文被人工预测出撤稿的论文的总体占比不高,约占所有撤稿论文的16%(召回率≈16%)。

因此,尽管只有一小部分撤稿论文的相关推文在论文撤稿前含有了可识别的问题信号,但这些信号确实存在。

研究者观察到,能够有效预测论文撤稿的批评性推文有两种类型:第一种直接突出论文中的错误或学术不端行为;第二种使用批评或讽刺的方式来突出论文的质量存疑。

这些推文能够促使期刊对论文进行调查,如果调查证实了推文中提到的问题的存在和严重性,论文随后可能会被撤稿。在这种情况下,批评性推文可以作为撤稿论文的催化剂,强调了将其纳入研究诚信的早期预警系统的价值。

ChatGPT能预测论文撤稿吗?

既然发现推文具有预测论文撤稿的潜力,研究进一步探索了关键词方法、机器学习模型和ChatGPT在根据推文来预测论文撤稿方面的潜力,将各模型的预测结果与人工预测结果进行比较。

图片研究表明,GPT-4的总体预测结果(包含撤稿预测和非撤稿预测)与人工预测结果的一致性最高,高达约95%!

其次是GPT-3.5和SVM模型,其一致性超过80%。而关键词方法与其他机器学习模型的一致性则在46%-64%之间,预测效果一般。

在精确率方面,同样是GPT-4的精确率最高:GPT-4预测会撤稿的论文中,近70%的在人工预测中同样会撤稿。而其他模型的预测精确率均远低于GPT-4。

图中进一步显示了不同模型预测结果与人工预测结果的比较。关键词方法和三种机器学习模型(LR、RF和NB)将大量人工无法判定为撤稿的论文归为撤稿(过拟合率高)。

相比而言,GPT-4的预测结果最接近于人工预测的结果:绝大部分GPT-4预测为撤稿的论文,人工预测也为撤稿,绝大部分GPT-4预测为非撤稿的论文,人工预测同样为非撤稿。

ChatGPT预测论文撤稿的实例

与其他方法相比,ChatGPT还有一个重要的优势——它能够为其预测提供理由,而其他方法则无法详细解释其决策。

例如,从样本论文中可以看出,ChatGPT对推文有深刻的理解,并能准确提取可能预测论文撤稿的信息,为使用推文评估论文是否存在潜在问题提供了宝贵的帮助。

例如:

然而,也要注意到ChatGPT有时存在「幻觉」问题,可能会产生不恰当的输出,因此在使用时需要谨慎,并考虑到其可能的错误预测。

例如:

样例论文3中,相关推文是对这篇论文的评价,暗示该论文指出诺奖得主的某篇论文存在问题。

然而,ChatGPT将样例论文3误以为是被撤稿的诺奖得主的相关工作,因此这篇论文可能被撤稿。此处的分析结果表明,ChatGPT存在一定的逻辑推理谬误与过度解读等问题。

因此,ChatGPT虽然能够通过推文从一定程度上预测论文撤稿,与人工预测的一致性在各模型中表现最好。但其在当前并非完美,在未来仍有长足的改进空间。

研究收到了著名学术不端数据库撤稿观察的转发,网友们表示,ChatGPT还能用来预测论文撤稿?真是从未设想过的道路。「我还以为没有足够多的数据来支撑这一结论呢!」

「ChatGPT 可以根据推特提及来预测论文撤稿吗?显然可以!请看这项研究……」

总体而言,研究揭示了社交媒体讨论作为论文撤稿早期预警的潜力,同时也展示了ChatGPT等生成式人工智能在促进科研诚信方面的潜在应用。

作者介绍

Er-Te Zheng(郑尔特)

Er-Te Zheng是中国人民大学信息资源管理学院的硕士生,由Zhichao Fang助理教授指导;在浙江大学获得管理学学士学位,师从Hui-Zhen Fu副教授。未来将前往英国谢菲尔德大学信息学院攻博,师从信息计量学首席专家Mike Thelwall教授。他的研究方向涉及计算社会科学、科学学和科学计量。

Hui-Zhen Fu(付慧真)

Hui-Zhen Fu是浙江大学公共管理学院信息资源管理系副教授,北京大学博士。担任信息资源管理研究所副所长,荷兰莱顿大学科学技术研究中心(CWTS)访问学者。在国际权威刊物发表论文超过40篇(SCI/SSCI),连续四年(2020-2023)入选爱思唯尔中国高被引学者榜单。她的研究方向为交叉科学、科学计量、科研诚信和科研管理。

Zhichao Fang(方志超)

Zhichao Fang是中国人民大学信息资源管理学院助理教授,荷兰莱顿大学科学与技术研究中心(CWTS)博士,莱顿大学CWTS客座研究员,伊朗波斯湾大学社交媒体数据研究组成员。在科学计量学与科技政策等领域发表SCI/SSCI论文20篇,多项研究成果受到Science杂志等权威学术媒体采访报导。他的研究方向为科学学、科学计量和社交媒体计量学。

责任编辑:张燕妮 来源: 新智元
相关推荐

2024-04-09 15:16:58

AI论文

2023-10-07 13:16:20

GPT-4NatureICLR

2024-11-20 13:30:00

2023-12-16 09:45:56

论文GPT-4AI

2023-07-21 15:11:29

斯坦福论文

2023-10-06 12:48:43

AI论文

2023-06-19 08:19:50

2023-01-16 14:37:24

PyTorch论文

2024-02-07 12:13:03

AI模型

2023-11-13 07:56:16

AI模型

2024-05-20 08:40:00

2024-01-17 08:18:18

2024-06-28 13:40:03

2023-11-02 12:10:00

AI训练

2021-02-04 15:05:36

人工智能机器学习技术

2023-03-13 00:17:15

GPT-4模型API

2024-03-15 15:09:28

2023-05-05 09:42:12

2024-05-21 12:23:17

2023-05-30 12:50:16

点赞
收藏

51CTO技术栈公众号