本文转自雷锋网,如需转载请至雷锋网官网申请授权。
Facebook 举报人Frances Haugen 的泄密表明其在某些领域的极端主义问题尤其严重。
豪根提供给《纽约时报》、《华尔街日报》和其他媒体的文件表明,Facebook意识到自己在印度助长了严重的虚假信息和暴力。这个社交网络显然没有足够的资源来处理这个人口众多的国家中有害物质的传播,当紧张局势爆发时,也没有采取足够的行动来回应。
2021 年初的一项案例研究表明,由于缺乏识别以孟加拉语和印地语编写的内容所需的技术知识,来自 Rashtriya Swayamsevak Sangh 和 Bajrang Dal 等团体的大部分有害内容并未在 Facebook 或 WhatsApp 上标记。
与此同时,据报道,由于“政治敏感性”,Facebook 拒绝将 RSS 标记为删除,尽管 Facebook 内部呼吁删除其材料,但Bajrang Dal(与莫迪总理的政党有关联)并未受到影响。该公司有一份免于事实核查的政客白名单。
根据泄露的数据可与i看出,Facebook 在五个月前还在努力打击仇恨言论。就像在美国进行的早期测试一样,该研究表明 Facebook 的推荐引擎建议有毒内容的速度有多快。在Facebook推荐之后的三个星期里,一个虚拟账户遭遇了分裂的民族主义、错误信息和暴力“近乎持续的攻击”。
与之前的独家新闻一样,Facebook 表示泄密事件并没有揭露真相。发言人安迪·斯通(Andy Stone)辩称,这些数据不完整,没有考虑到在美国以外大量使用的第三方事实核查机构。他补充说,Facebook 在孟加拉语和印地语等语言的仇恨言论检测技术上投入了大量资金,并且该公司正在继续改进这一技术。
这家社交媒体公司随后发表了一篇更长的文章为自己的做法进行辩护。它辩称,它有一个“行业领先的流程”,每六个月审查一次暴力风险高的国家并对其进行优先排序。它指出,团队考虑了长期问题和历史以及当前事件和对其应用程序的依赖。该公司补充说,它正在与当地社区合作,改进技术并不断“完善”政策。
然而,回应并没有直接解决一些担忧。
印度是 Facebook 最大的个人市场,有 3.4 亿人使用其服务,但 Facebook 87% 的错误信息预算都集中在美国。即使有第三方事实核查员在工作,这也并不能表明印度得到了相应的关注。
此外,Facebook此前曾表示,它在执行政策时不考虑职位或关联,但没有继续跟进有关它对某些人和群体小心翼翼的担忧。换句话说,目前还不清楚Facebook在虚假信息和暴力方面的问题是否会在不久的将来得到改善。