大数据文摘出品
来源:venturebeat
编译:在赤道的熊猫
ACM公平、责任与透明度大会(FAccT)的会议赞助商联合主席兼Boise State University助理教授Michael Ekstrand于今天证实,该会议已决定中止与Google的赞助关系。
AI伦理研究会议的组织者在Google解雇了AI伦理负责人Margaret Mitchel一周多和AI伦理联合负责人Timnit Gebru三个月后才做出这一决定。
Google随后重组了10个团队的约100名工程师,包括让Google副总裁Marian Croak领导Ethical AI。
“ FAccT以战略计划为指导,与执行委员会合作,由赞助主席负责制定符合该计划的赞助组合,” Ekstrand在一封电子邮件中告诉VentureBeat。
“执行委员会做出决定,认为Google做为2021年会议的赞助者不符合社区的最大利益,并且会阻碍战略计划。我们将修改明年会议的赞助政策。”
该决定是在关于谷歌开除Ethical AI团队负责人之后,FAccT是否会继续与Google保持的数天的质疑之后进行的。这个消息最早是在星期五发布。
FAccT计划委员会成员Suresh Venkatasubramanian发推文说,该组织将暂停与Google的关系。
停止Google的赞助并不意味着科技巨头甚至Google本身的赞助终止。
DeepMind,Google的一家公司,作为FAccT会议的另一赞助商,在今年1月引起了AI伦理学争议。自2018年成立以来,FAccT一直在寻求谷歌和微软等大型科技公司、福特基金会和麦克阿瑟基金会的资助。去年发布的一项报告比较了科技巨头对AI伦理研究的资助与主要烟草公司对卫生研究的资助的历史,发现四所著名大学的研究人员中有近60%都是从大型科技公司获得资金的。
在Gebru被解雇后,谷歌员工对所谓的“前所未有的研究审查”行为发起了抗议。上周,路透社报道了另一起涉嫌干扰该公司AI研究的事件,一篇研究论文的合著者引用了Google法律团队的“深层阴险”编辑。
根据FAccT网站的说法,作为该组织的联合创始人的Gebru依旧是数据和算法评估建议小组成员,并担任项目的委员会主席。Mitchell是该会议的项目共同主席,也是FAccT项目委员会成员。
因为对科技公司缺乏多元化等因素的争议和与他人合作的论文《论随机鹦鹉的危险:语言模型会变得太大吗?》的发布,Gebru于2020年12月被谷歌辞退。除了认识到预先训练的语言模型可能会对边缘化社区造成的伤害不成比例之外,这篇文章还质疑了是否可以通过基准测试的表现来真正衡量进步。该论文还引发了对大型语言模型潜在的误用或自动化偏见的担忧。
这篇文章谈到“如果一个拥有数千亿参数,在非常大的数据集上受过训练的大型语言模型可以很好地操纵语言形式,从而通过要求理解语言的测试,那么我们是否学到了任何有关如何构建语言的有价值的知识,还是我们被带到了花园的小路上?”。
Gebru被列为该论文的两位主要作者之一,这篇论文本周被FAccT接受发表。她的主要合著者是华盛顿大学的语言学家Emily Bender。
Emily 所著的大型语言模型的潜在缺陷和更深入批评的需求的文章于去年夏天获得了计算语言学协会的奖项。
VentureBeat去年从熟悉情况的消息来源获得的论文的副本将Mitchell, Google研究人员Mark Diaz和Ben Hutchinson列为共同作者,他们三人都具有语言分析和模型方面的背景。
尽管Mitchell如今在AI伦理方面的工作广为人知,但她也是计算机视觉和自然语言处理研究人员中被高度评价的人物,并且是华盛顿大学2008年文本生成的硕士论文的作者。
Ben Hutchinson与Google的Ethical AI团队的合著者合作,发表了一篇论文。该论文证明了NLP模型的偏见不利于残疾人在情绪分析和毒性预测。Mark Diaz检查了文本中与年龄相关的偏见。
Bender和Gebru在这篇文章的各种版本中被列为主要合著者。华盛顿大学在会议之前发表的论文的另一版本也将“ Shmargaret Scmitchell”列为作者。
Gebru是一名杰出的algorithmic oppression(算法压迫)研究人员,并且是Google AI研究人员中仅有的黑人女性之一。
Gebru被解雇导致了成千上万名Google员工的反对,并指控种族主义和报复。该事件还引发了对管制算法有浓厚的兴趣的国会议员的提问。它也导致了研究人员质疑从Google获得道德研究资金的道德。
AI,道德和法律方面的专家告诉VentureBeat,Gebru被解雇可能导致一系列政策变化,包括支持更强有力的举报人法律。被解雇后不久,Gebru谈到了将联盟化作为保护AI研究人员的一种手段的想法,Mitchell是2021年1月成立的Alphabet工人联盟的成员。
OpenAI、斯坦福大学的研究人员和专家联合在上个月警告说,像Google和OpenAI这样的大型语言模型,在开始传播复制品前只有短短几个月的时间来设定其伦理的标准。
今年在FAccT上发表的其他论文包括分析非洲国家数据共享实践中的常见障碍,对Data&Society的AI on Ground团队的算法影响评估的回顾,以及一个对政府压制和审查制度如何影响经常被用于训练NLP模型的输入数据的文本的研究。
在最近的其他AI研究会议活动中,最受欢迎的年度的机器学习会议NeurIPS的组织者告诉VentureBeat,该组织计划在围绕NeurIPS赞助商华为为中国当局制造维吾尔族穆斯林检测系统的问题来修改其赞助政策。
相关报道:
https://venturebeat.com/2021/03/02/ai-ethics-research-conference-suspends-google-sponsorship/
【本文是51CTO专栏机构大数据文摘的原创译文,微信公众号“大数据文摘( id: BigDataDigest)”】