新研究揭示:AI自生成内容的循环使用可能导致“模型崩溃”

人工智能
据《福布斯》9月4日报道,牛津大学的伊利亚·舒梅洛夫博士及其团队在《自然》杂志上发表的一项研究中指出,当AI系统仅依赖于由自身生成的内容进行训练时,其输出质量会迅速下降。

据《福布斯》9月4日报道,牛津大学的伊利亚·舒梅洛夫博士及其团队在《自然》杂志上发表的一项研究中指出,当AI系统仅依赖于由自身生成的内容进行训练时,其输出质量会迅速下降。

这种现象被称为“模型崩溃”,即AI在不断使用自身生成的数据进行训练后,其输出内容逐渐失去准确性和实用性。

研究显示,在经过五次连续的自我生成内容训练后,AI的输出质量显著下降;到了第九次,输出内容已经退化为毫无意义的文本。

舒梅洛夫博士指出,模型崩溃的发生速度之快和难以察觉的程度令人惊讶。最初,它可能只影响少数数据,但随后会逐渐侵蚀输出的多样性,最终导致整体质量的严重下降。

为了验证这一现象,研究人员采用了一种方法:他们使用了一个预训练的AI系统,该系统能够驱动一个维基百科的版本,并让AI基于自己生成的内容进行更新。结果发现,随着受污染数据的累积,原本的训练集逐渐被侵蚀,输出的信息质量也随之恶化。例如,在经过多次循环后,原本关于14世纪英国教堂尖顶的条目被错误地更新为关于短尾兔子的论文。

此外,AWS团队在6月的另一项研究中发现,大约57%的网络文本都经过了AI算法的处理。如果互联网上的人类生成内容被AI生成内容迅速取代,那么AI可能正面临“自我毁灭”的风险,同时也可能对互联网的内容质量造成严重影响。

研究最后建议,为了确保AI的长期可持续发展,必须确保其能够访问到非AI生成的内容,并持续引入新的人工生成内容,以避免模型崩溃的发生。

责任编辑:庞桂玉 来源: 极客网
相关推荐

2012-06-11 09:23:41

云计算云服务

2024-11-01 08:25:54

2024-01-10 16:42:23

人工智能工业

2024-12-19 09:48:59

2020-12-16 10:49:56

谷歌系统系统瘫痪

2022-04-07 14:44:24

人工智能计算神经网络

2024-07-29 13:58:04

2024-09-27 12:20:18

2010-04-12 11:17:32

2009-05-06 09:03:50

微软Windows 7操作系统

2023-11-08 08:38:43

2023-07-21 14:47:24

AI训练

2023-08-05 12:54:32

2023-06-19 13:59:00

研究测试

2023-01-13 21:13:31

AI人工智能医疗

2023-01-05 11:13:03

2024-04-18 12:16:37

MetaAIOpenEQA

2024-11-12 08:59:39

2024-08-26 09:35:00

模型文生图

2023-10-31 12:45:00

智能数据
点赞
收藏

51CTO技术栈公众号