Mozilla 的一项调查发现,YouTube 的推荐算法倾向于向用户推荐有问题的视频,包括仇恨言论、错误的政治和科学信息以及其他可能违反 YouTube 社区准则的内容。
YouTube 是世界上访问量第二大的网站,并且其平台上 70% 的观看时间由推荐算法决定。然而在 2020 年, Mozilla、反诽谤联盟、纽约时报、华盛顿邮报、华尔街日报和其他几个组织、学术研究人员和出版物的调查显示 YouTube 有可能在通过其推荐算法误导、分化和激进化用户,使用户走向极端。
对此,Mozilla 推出了 RegretsReporter 项目。这是一个浏览器扩展程序,允许用户报告 “令人遗憾” 的或后悔观看的内容。在为期 10 月的调查中,Mozilla 总共收集了 91 个国家或地区的 1,622 名个人用户提交的 3,362 份报告,并随后聘请了 42 名埃克塞特大学的研究人员来审查提交的内容是否违反了 YouTube 的政策。
结果显示,被标记为有问题的视频中有 71% 来自 YouTube 自己的推荐,并且推荐视频被志愿者举报的可能性比他们搜索的视频高 40%,这表明包含争议元素的内容更受到系统的青睐。其中,大约 9% 的视频后来因违反平台政策而被 YouTube 撤下。此外,在非英语为主要语言的国家(巴西、德国和法国尤其高),用户被推荐有问题的内容的比率还要再高出 60%,而且与流行病相关的问题视频在非英语语言国家中尤为普遍。
因此,Mozilla 表示 YouTube 存在 “重大危害”,在管理用户的播放内容时采取了错误的方法。并且提出了几项建议,包括透明化推荐系统、加强审查和监管、给消费者提供保护自身权利的设置等等。完整的调查报告可以点此查阅。
本文转自OSCHINA
本文标题:YouTube 推荐算法被曝倾向于潜在有害视频
本文地址:https://www.oschina.net/news/149518/youtube-algorithm-problem