警惕金融消费场景中的算法性别歧视
2021-01-13胡晓萌
胡晓萌
性别歧视的现象在现实生活中常常发生。如今,我们已经迈入了大数据时代,在数据的全面透视下,性别歧视的现象更有愈演愈烈之势,其中在金融消费场景中特别突出。
2019年8月20日,美国苹果公司与高盛集团联合,正式推出信用卡Apple Card。同年11月,美企业家汉森(David Heinemeier Hansson)在Twitter上指责Apple Card涉嫌算法性别歧视,因为他的信用额度是他妻子的20倍,而他们在申请时提交的是联合纳税申报表,并且妻子的信用评分更高。Apple联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)也指出,他获得的Apple Card信用额度是他妻子的10倍,尽管他们夫妻共同使用多个银行账户和信用卡账户。
不久,纽约金融服务部(New York Department of Financial Services)发言人明确表示,金融服务部已决定就此展开调查,以确定Apple Card的算法是否存在违法违规行为,并确保所有消费者不分性别都受到平等对待。
实际上,在 1972年就有国外学者明确指出,在信贷市场中存在明显的性别歧视现象,女性即便被认定拥有与男性相同的还款能力,但在获得贷款的可能性上却依然会遭受不公正的待遇。同时,还有学者研究指出,信贷市场中存在逆向选择和道德风险问题,使女性在传统信贷市场中更容易遭受偏好歧视。因此,女性借款人在传统信贷市场中不仅借款成功率低,通常还被要求支付更高的平均还款利率。
如今,科技和算法加持金融服务的发展,但对性别歧视的问题并没有太多改善,有些方面反而更加显著。2016年,暨南大学对网贷平台“人人贷”在2012年3月至2014年12月期间产生的170817笔订单数据进行了分析,得出结论:一是性别的风险倾向存在显著的异质性,女性的借款违约率相比男性低38%;性别差异与借款可获得性之间不存在显著的影响,说明女性借款人在中国互联网借贷市场中受到了非理性的偏好歧视;单身女性的借款成功率显著低于男性,受到的歧视更为严重。2018年,江南大学的一项类似研究,不仅得出类似的结论,还发现女性的学历背景无助于提高女性的借款成功率。
综上可见,金融消费领域中存在严重的性别歧视现象,而建立在数学之上的算法并不会自然地保持中立。这一社会问题正是上海玛娜数据科技发展基金会(以下简称“玛娜数据基金会”)所关注的领域。在玛娜数据基金会前期的研究中发现,算法性别歧视有两大原因:第一,在数据化的背景下,社会性别通过数据化扩大其影响,性别观念、权力关系、责任分配等演化成算法的内在运行机制,算法在不断固化和加深社会原本存在的性别歧视,并且性别歧视在算法“黑箱”中持续化、规模化、隐蔽化地产生作用;第二,现代技术不是中性的,是男性价值和文化的体现。技术具有性别统治的行为意志,会导致技术创新实践中的女性缺席,也加剧了“性别失衡”,最终导致人工智能技术创新中的“女性视角”缺失,无法及时发现、纠正算法在设计研发和运行中可能存在的性别歧视。
尽管女性的还款能力、学历背景、履约诚信度等金融重要参考要素都不弱于男性,但是女性仍然会被算法歧视,因为算法继承了社会中原本的性别歧视。而且这种歧视由于算法的“黑箱”属性而无法轻易被察觉。即使女性用户发觉自己被歧视了,但在以精确无误和客观中立标榜的算法面前也无力辩驳,此时客服人员会告诉用户“这个是系统给出的结果,我们也没有办法”。
不管在金融消费领域,还是人工智能技术的创新领域,大多为男性主导话语权,“女性视角”的缺失成为金融消费场景中算法性别歧视问题的重要原因。回到Apple Card这个案例,任何互联网产品在上线之前都要经过不断地测试,发现和消除系统运行的漏洞,保证其运行的稳定性。如果Apple Card团队拥有性别视角,在产品上线之前进行了性别方面的测试,则很容易就会发现算法性别歧视问题。
我们正在迎来算法社会的到来,算法在金融消费领域会扮演越来越重要的角色。我们应警惕和应对金融消费场景中的算法性别歧视,保护好消费者的切身利益,也守护好企业的品牌声誉,避免其成燎原之勢。 (企业推广)
作者系玛娜数据基金会研究员
责任编辑:葛辛晶