人工智能有搞『种族歧视』吗?
2022-02-28关不羽
□ 关不羽
优步公司在英国又“摊上大事”了。这事大致上是这样的:公司要求员工把自拍照上传到人事系统,与系统存储的参考照片进行匹配。如果匹配不成功,那么系统会提示员工实时自拍,并面临解雇风险。而员工一旦被解雇,也将面临被自动吊销其私人出租司机和车辆执照的处罚。这样的倒霉事在两位优步前员工身上发生。
这本来是一起普普通通的劳资纠纷。但是,英国工会可不会那么轻易放过这样的机会,诉讼的理由中赫然出现了“种族歧视”。
因为据一些技术人员和相关组织称,“面部识别系统……天生就有缺陷,对有色人种进行识别时准确度会变得很差”。涉及“种族”,事件性质立刻升级到“种族歧视”的高度了,技术问题升级为政治问题,敏感度倍增。
其实,人工智能面部识别系统对有色人种的识别精度不佳,不是新问题。2015 年,谷歌就闹过笑话。一名黑人软件开发人员在Twitter 上说,谷歌照片服务把他和一个黑人朋友的照片打上了“大猩猩”的标签。当时也有一些“进步”组织和人士借机发难,指责谷歌“种族歧视”。但“进步”的谷歌不大可能是故意为之。最终的“受害者”可能是猩猩,因为谷歌的应对措施是把“猩猩”和其他灵长类动物的标签移除了,“猩猩”在“谷歌宇宙”中成了“查无此人”的黑户。
比起2015 年的谷歌,优步可能就没那么幸运了。一则“种族问题”的敏感度远远超过了2015年;二则涉及劳资纠纷,索赔的想象空间巨大。就在2021 年10 月5 日,因“旗下工厂存在种族歧视问题”,美国旧金山法院判决某电动汽车厂商向前黑人员工赔付1.37 亿美元。
那么,到底人工智能的识别误差能不能被视为“种族歧视”呢?这就涉及误差产生的原因。众所周知,人工智能是在特定模型下自我学习形成算法的,训练模型所依据的数据集和模型本身的设计都有可能带来偏差。数据集和模型本身哪怕只是出现了人力难以察觉的细微偏差,人工智能的海量运算也会将其放大到失真的程度。这样的问题在现有的技术条件下并不罕见。2013 年谷歌人工智能预测流感暴发就“大翻车”了,预测数据比实际数据高了两倍。原因是经媒体报道后,很多没得流感的人也搜索了相关内容,导致人工智能的误判。
造成“有色人种面部识别率误差大”的技术因素甚至更为单纯——光学现象。2015 年“黑猩猩标签”事件后,技术人员分析发现,识别错误率最高的不是非裔,而是亚裔(黄种人)女性,识别错误率高达20%。而“黑人”的识别错误率为5%——此处的“黑人”并不局限于所谓“非裔”,而是纯粹意义的深肤色,也包括印度裔、拉丁裔等等。
造成这一现象的原因其实不难理解,亚裔女性的肤色普遍偏白,不仅比亚裔男性白,甚至可能比大部分白人更白,更高的反光度造成了面部成像的对比度下降,造成了识别度偏低。而“黑人”的肤色偏黑,吸收了更多的光,同样造成了识别困难。其实,理解这一现象不需要高深的知识,日常生活经验就够了。观察各类摄像头监视画面里就可以发现,肤色更黑和更白的人,面部细节会更模糊一些。
这一纯粹的光学难题,人工智能很难完全克服,确实存在技术局限性。但是,没有理由认为这是人为设置的“歧视”。硅谷没有理由专门为难亚裔女性,却“放过”亚裔男性。也不会刻意针对“黑人”——在硅谷,深肤色的印度裔可是优势人群。更何况人为降低人工智能的面部识别精度,对这些企业的商业利益毫无帮助。
当然,不可否认,人工智能技术确实会产生“歧视”。2014年亚马逊开始建立人工智能程序,以审查求职者的简历,以实现自动化招聘功能。但是,一年之后亚马逊就放弃了这一尝试,因为他们发现“AI 不喜欢女性”。这种差别对待当然符合“歧视”的标准定义,但是这种“歧视”恰恰是因为“过于真实”才造成了麻烦。亚马逊有很多岗位是对体力有一定要求的,男性确实比女性强壮,因此AI 计算形成了性别偏好。这到底算不算AI 犯错了呢?
引入人工智能自动招聘是为了提高效率,AI 确实做到了。但是,这种真实的效率改进,却因“性别歧视”的敏感性而搁浅。复杂的人类社会中,真相并不总是受到欢迎,AI 没有学到这最重要的一课。
如果是护士、教师等女性优势岗位也用人工智能自动招聘,出现“重女轻男”的结果,又会如何?多半是波澜不惊,甚至成为一段佳话。这种微妙的心态,或许已经超出了AI 的理解能力。
归根结底,围绕“人工智能”的是是非非再复杂,也是技术问题,不应将其政治化、意识形态化。即使存在技术局限,那就改进技术,而不是挥舞“歧视”的政治大棒去限制和扼杀。如果因此导致人工智能学会撒谎,那更是危险的倾向。