挽救失足AI,不能光靠打骂

人工智能
研究提出了AI性别偏见起源的理论框架,因果框架,用来解释在预训练过程中,数据不平衡是怎么导致模型的性别偏见的。

好多研究都发现,AI这家伙好不害臊,竟也学会性别歧视了。

这可咋整?

最近,清华&复旦的一项研究为此给出建议:

要想把失足AI从性别歧视这条路上拽回来,一顿臭骂效果可不好。

最好的办法是了解孩子为啥这样,然后对症下药给他讲道理。

因为要是光教训不讲道理,暴力纠正,AI会被吓笨(性能下降)!

哦买噶,养四脚吞金兽难,养(xun)个(lian)赛博孩子也得这么难了?

来看看这群AI“奶爸奶妈”,提出了哪些训孩子的建议吧。

讲道理,AI可以减少性别歧视

在这次以前,不是没有人揪着失足AI的耳朵,想让它改掉重男轻女的坏毛病。

但是,目前的大多数去偏方法,都会让模型在其他任务上的性能下降。

比如你让AI减弱了性别歧视,就会产生这样的恼人结果:

它要么分不清“爸爸”的性别是男还是女,要么会犯语法上的错误,忘记给第三人称后面跟着的动词+s。

更可气的是,这种退化机制还没被研究明白。

大家要不然直接弃用性别偏见明显的模型——

2018年,亚马逊注意到用来自动筛选简历的模型存在对女性求职者的歧视,就把这个系统雪藏了。

要不,就只能忍受性能下降。

难道说想让AI不再是失足AI、问题AI,AI就一定会失了智吗?

清华&复旦的研究对此说No。

图片

他们研究的领域是预训练语言模型。

这是因为它在各种NLP任务里显示神通,有很多实践场景。

当有性别偏见的它被用在在线广告、自动简历筛选系统、教育等社会工作中时,可不太妙。

研究提出了AI性别偏见起源的理论框架,因果框架,用来解释在预训练过程中,数据不平衡是怎么导致模型的性别偏见的。

他们把预训练模型在执行特定预测任务时的性别偏见进行如下定义:

图片

其中,M是模型,Y是要用M预测的单词,B是M的性别偏见程度。

Y0|W是ground truth,作为男性相关单词或女性相关单词的概率为二分之一,Y|W是M的预测。

如果M的预测Y不平衡且分布在性别之间,则模型M在根据w预测Y0时存在性别偏见。

在预训练过程中,优化算法会根据预训练数据D确定嵌入部分和K中的参数。

因此,数据不平衡D误导模型得到了不正确的参数。

比如,训练数据中的“医生”一词更常与男性词汇相关,模型就会想当然地将“医生”和“性别男性”联系起来。

看到这个三角形没,咱用它来解释一下,为啥现在的方法纠正AI会让它变笨。

图片

当应用预训练模型,根据W预测Y时,模型首先将W转换为提取的X,然后根据X和K来确定Y的均值。

由于潜入部分的参数具有误导性,W被转换为不正确的X,而K也是不正确的。

一顿操作下来,错误的X和错误的K,一起导致Y出错。

这些错误及其相互作用,通过三个潜在机制导致性别偏见。

图片

也就是说到了这一步,性别偏见就产生了。

而目前教育AI的去偏方法是怎么运作的呢?

目前所有的去偏方法都干预了三种机制中的一种或两种。

具体如下:

  • 增强对D的数据干预,并在所有三种机制中进行干预。
  • 通过消除X在K中的性别空间上的几何投影,切断了D→X→K→Y的路径。
  • 性别平等正则化方法要么扭曲了D与X的关系,要么扭曲了D与K的关系,因此这类方法干预了D→X→Y和D→X→K→Y的机制。

在解释了当前去偏方法中存在的偏见-性能困境后,团队尝试提出一种微调方法。

他们发现,三种机制中,有且仅有D→X→Y这种在导致性别偏见时,与transformer无关。

如果微调方法仅仅通过D→X→Y纠正偏差,就可以在减少性别偏见的同时,保持模型的性能。

根据分解定理,团队进行了数值实验。

结果证明,这种方法能够带来双重红利:

减少部分性别偏见,同时避免性能下降。

经过实验,团队成员把AI性别偏见的来源定位于预训练模型的两个架构:词嵌入和转换。

据此,研究团队提出C4D方法,即通过调整标记嵌入来减少性别偏见。

这个方法的核心思想是通过修正被误导的X,来缩小TDE函数,从而减少总偏差。

图片

虽然团队也不知道正确的标记嵌入到底该是啥,但是他们开发了一种基于梯度的方法,来推断潜在的ground truth。

一切就绪,团队将C4D方法应用于GPT-2试验去偏结果。

结果表明,在所有测试方法中,C4D方法在小、中、超大型GPT-2上的困惑度都是最低。

在大型GPT-2中,C4D的困惑度排第二,只比最高分差了0.4%。

图片

而且,得分最高的方法,对性别歧视的去偏效果低于C4D。

在GLUE数据集上,C4D方法获得了最高平均分。

图片

这表明,C4D可以明显地减少性别偏见,并保持模型性能。

听了这么多理论方面的介绍,来看个图例直观感受一下。

下面三张图中,蓝色的点代表潜入的男性偏见,红点代表女性偏见。

图(a)是AI本来的理解;图(b)是人类无目的一通谩骂后,吓笨了的AI的理解;图(c)是人类找到原因,耐心讲解过后AI的理解。

图片

在图(b)和(c)中,男性偏见和女性偏见的嵌入更加集中,这意味着偏见的水平较低。

同时可以注意到,图(c)中的嵌入仍然保持了图(a)中的拓扑结构,这也是C4D方法能够保持模型性能的原因。

研究者:或许还能减少AI的其他偏见

“尽管这个方法可以有效缓解语言模型中AI对性别的偏见,但仍不足以完全消除。”

——研究者人员如实指出这个问题。

若想在不降低AI性能的条件下,进一步纠正AI的偏见,还需要更好地理解语言模型的机制。

那怎样才能更好地理解?

一方面,是用本研究提出的“C4D方法”再去测试一下AI身上的其他偏见。

本实验的主要研究对象是:职场上的性别偏见。

而实际上,由于AI之前不断学习各种信息,属于来者不拒的那种,结果一不小心,还染上了宗教歧视、嫌黑爱白等社会固有的毛病……

所以,不妨去GPT-2上再测测去除其他偏见的最终效果。

另一方面,可以把“C4D方法”放到多种大模型上试试。

除了本研究用到的GPT-2,例如谷歌开发的NLP经典预训练模型BERT,也是一个不错的测试场景。

不过要移植到其他模型的话,需要重新生成校正模板,并且可能要用到多变量TDE(Template Driven Extraction)函数。

通过运用TDE函数,你可以直接将内容放入索引,而不需要修改文档结构。

有网友抱着狗头来了:

图片

总体来说,走进社会变成“失足AI”不可避免。

但想要“失足AI”浪子回头,找对方法,给它讲道理,还是会有不错效果滴~

另外,研究团队成员之一,清华大学的于洋在个人微博上表示,过两天还有个关于AI模型性别歧视查询的网站会上线。

可以期待一下!

论文地址:https://arxiv.org/abs/2211.07350参考链接:​https://weibo.com/1645372340/Mi4E43PUY#comment

责任编辑:武晓燕 来源: 量子位
相关推荐

2020-02-28 14:24:54

AWS益体康AI

2010-08-30 10:55:58

面试

2017-11-13 13:51:44

AI预防自杀机器人

2010-08-31 13:07:48

职场

2009-06-16 16:09:54

动态语言Swing

2024-03-15 08:22:35

JmzyAI开源模型AIGC产品

2011-12-23 09:51:26

2022-07-21 09:05:52

AI听诊器

2019-11-21 09:25:23

AI 数据人工智能

2010-04-15 10:31:23

2009-10-20 14:37:41

被就业NIIT培训

2009-05-24 14:26:59

开源MySQL挽救

2009-03-05 13:26:44

学士后技能培训本科生

2015-06-19 15:01:02

Wi-Fi充电技术

2022-09-14 12:59:27

人工智能运动课程足球比赛

2011-05-06 10:31:32

笔记本电池

2023-09-18 08:56:50

Linux旧电脑

2020-11-04 09:36:15

人工智能机器学习google

2013-05-08 09:23:34

点赞
收藏

51CTO技术栈公众号