AI也有偏见?
2021-01-25聂龙
聂龙
AI检测一定公平吗?绝大多数人对这个问题的答案很可能是肯定。在2018年,美国社交媒体Facebook开发了新的代号为Rosetta的AI系统,用以检测自己社交平台上的仇恨性言论。然而,两年之后,美国南加州大学的研究人员发现,包括Facebook在内的所有AI语言检测系统实际上也带有偏见,黑人、同性恋和变性人所发的信息更容易被这些AI标记为“具有仇恨的”。例如,黑人的推特(美国另一个社交媒体,类似中国的微博)被AI标记为“带有种族歧视”的可能性是其他族裔的1.5倍,这个数值在其他研究当中甚至高达2.2倍。
AI并没有我们想象中那样的公平,这是怎么一回事?
“学坏”的AI
为什么AI也带有偏见?这是因为AI“学坏”了。AI是在某一种机器学习模型的基础上发展起来的,而所有的机器学习模型都需要大量的数据来进行训练和充实自己的数据库。如果把AI比作高楼,那么机器学习模型就是这座AI高楼的设计图纸,而那些数据就是建造这座AI高楼的砖瓦。
然而,机器学习模型所使用的数据来自于现实生活中的各大社交平台,这些社交平台当中的信息又都充满了偏见,有的社交平台甚至专为种族歧视者服务。因此,基于“偏见”砖瓦所垒砌的AI高楼,带有偏见也就不足为奇了。
另外,这些AI采用的还是“关键字”的检测方式,完全忽略了上下文和语境。就拿“nigger”这个英文单词来说,它的中文意思是“黑鬼”,是一个极具种族歧视色彩的单词,也是AI所检测的重点单词之一。但是,如果情况是黑人自己说了nigger这个词(无论对象是谁),那么这个词的意思却是“好兄弟”、“好朋友”或“死鬼”(死鬼:在黑人妇女称呼自己黑人丈夫的语境下),等等。在日常口语中,黑人也多以nigger来称呼自己亲密的朋友和兄弟。
但AI可管不了这么多。只要信息中出现ni gger,或其他类似的词或语句,这信息就会被AI标记,然后被关“小黑屋”,同时,AI还会记录发送该信息的用户的“罪行”。于是乎,在文章的开头提到的,黑人的推特更容易被标记为“具有种族歧视”的现象就产生了。
联系上下文的AI更公平
那么,科学家该如何改进AI,使它对仇恨性言论的检测更加公平?首先在我们脑海显现的方法很可能是解决“砖瓦”上的问题。既然AI带有偏见的原因之一,是由于其训练和使用的数据带有偏见,那么给AI提供客观公平的数据不就好了?但是,取自现实生活的数据或多或少都带有偏见,如果人工制造绝对客观公平的数据,那么这个工作量可是非常巨大的,甚至大到无法实现。
南加州大学的研究人员对原来的AI算法进行了编程,使它识别关键字或关键词的同时,能够联系上下文,并判断上下文有没有侮辱性的语言,也就是说,跟原来的AI相比,经过编程后的AI只多考慮了两个“情况”。
改进后的AI效果如何?跟其它最新开发的AI相比,即使南加州大学的研究人员改进后的AI练习所使用的数据全都来自臭名昭著的仇恨网站,但它检测仇恨性言论的准确率依然更高,高达90%,而其它最新AI只有77%。只是多考虑两个附加因素的南加州大学AI为什么会有如此大的提升?
其背后的道理不难理解。同样且简单的一句话“Thank you, myni gger. ”(中文意思:“多谢了,我的好兄弟。”),如果跟南加州大学AI那样考虑上下文的话,那么我们很容易就能理解这句话的意思是感谢。但是,如果我们跟传统的AI那样,忽略了上下文,只看关键词“nigger”的话,那么我们就会认为说者在发表种族歧视的言论。