APP下载

对人工智能时代算法歧视的思考

2020-08-13梁宪飞

中国信息化 2020年7期
关键词:百度公平算法

梁宪飞

一、算法歧视概念

算法歧视就是在人们在使用人工智能的过程中,在算法内部通过一系列的演算从而伤害公民的基本权利,违背社会公共伦理的一种规则或者是制定者本身设定的算法就是不公平的一种规则。算法歧视分为两种:第一种是涉及第三人的的算法歧视。这种规则本身就是一种不公平的歧视。比如百度上的搜索排名。这个排名本身是一种有偿服务,不涉及歧视。但是当这个规则涉及到第三人利益的时候,就会导致对第三人产生一种误导,导致第三人的利益产生了严重的伤害。比如之前在百度上出现的莆田系医院,从而导致魏则西的事件的发生。只是这种歧视,平台负不负责任就难以界定。如果平台要对此负责的话,那么对于网络空间的发展是很不利的。这是2019年5月17日刘艳红教授来安徽大学的关于网络犯罪的讲座给予我的启发。第二种就是不涉及第三人的算法歧视。算法本身就是针对使用者。因为算法规则本身不公平或者是由于算法收集的数据本身导致的歧视。算法歧视的特征主要有不透明性、不确定性、广泛性。

二、规制算法歧视的必要性

在王思聪的微博抽奖事件中,还有大数据杀熟的问题上,我们可以看到商家一种歧视。大数据杀熟是利用算法来达到一级价格歧视,但是王思聪微博事件体现的则是微博背后的算法规则商业气息越发浓厚。在抽奖这上面,用户大多是收入尚可,年纪较轻的年轻女性。我认为微博表达了其消费价值观,以商业大局為重。微博的价值观与百度类似。百度是一家中国互联网巨头,曾将利润第一的价值观推行了很多年。例如之前我们在百度上搜索的医院,大量出现的莆田系医院。我认为这就是一种算法歧视,虽然这是百度的一项商业服务。但是作为普通的搜索者所搜索的结果,是依据百度制定的算法规则。这已经伤害了大众普遍的伦理道德,这就是一种算法歧视。

在大数据杀熟中我们可以看到很多人遭受侵害,这也是一种比较小的侵害,只是一点财产上的损失。但是百度上的大量莆田系医院事件,是关乎每个人的性命攸关的大事。在魏则西事件是一个年轻人选择了百度搜索出的三甲医院武警二院,散尽家财,采用所谓最新的美国技术,最终耽误治疗时间从而导致死亡结果。百度搜素引擎采用的竞价规则虽然是一种服务,但是这个服务是展现给公民大众的,这严重损害了普通公民的知情权,错误的引导了普通民众。虽然魏则西的生命是由于武警二院的治疗导致,但是百度的竞价规则本身的不完善或者说就是以利益为导向的一种规则,就是一种算法歧视。如果严重损害公民健康的,那么就需要对这种规则进行规制。

三、算法歧视产生的原因

(一)算法的复杂性

依据算法的复杂程度,可以将其分成三类,即白箱,灰箱,黑箱。白箱指的是算法是完全确定的,灰箱指的是算法虽然不是确定的但是容易预测和解释,黑箱指的是算法难以预测与解释。如果是黑箱这种程度,算法是难以预测的,普通消费者也对算法本身是否就是有歧视不了解。部分企业的算法虽然名义上不是歧视,但是在具体处理的过程实质上是产生了歧视。算法本身的复杂程度已经让人难以对其进行分析并解决,更何况企业本身也将算法作为知识产权来保护,这也加大了算法公开的难度。

(二)数据本身的偏见

算法从研发设计之初,就无法做到完全的客观,不论是主观的对算法的修改用以牟利,还是数据输入或算法技术的缺陷,都使得算法歧视可能成为一个长期的问题。带有歧视的数据经过运算之后得到的结论也带有不公平的色彩,而有时候参考数据样本过少也使得算法系统出现不公平。人工智能体现的偏见大多数来自于在学习人类语言的时候吸收了人类文化本身的观念,从而在某种程度上产生了偏见。

(三)设计者的偏见

智能算法的设计要求、设计目的都是由开发者以及设计者的主观上的价值体现。开发者和设计者可能会将自己的偏见带入算法中,而算法也将这种偏见延续下去。智能算法的本质就是用过去的经验预测未来的结果,而过去的经验中歧视和偏见可能会在智能算法中固化并在未来中得到强化和扩大。

四、规制算法歧视的措施

(一)构建技术公平规范体系

人类社会中的法律规则、制度以及司法决策行为受到程序正义和正当程序约束。如今这些规则正在被写进程序中,但是技术人员也不知道怎样是公平的,而且也没有一定的标准来指引他们。在面对关乎每个个体的利益的决策程序时,人工智能决定着每个人的利益,人们需要提前构建技术公平规则。通过构建技术公平规则来减少算法的不透明。在技术层面上,我们需要将公平原则纳入技术设计之中,通过技术来保障公平的实现,预防算法歧视。例如谷歌公司在人工智能的设计中就提出了机会均等的概念来处理敏感数据,以防止出现歧视。还有的研究者设计了社会平等的技术模型,既满足了平等也满足了效率的要求。这些研究者还开发了歧视指数,这个指数提供了对算法的歧视行为的评判标准。

(二)增加算法的透明度

算法的不透明是导致算法歧视的一个原因。我们在事后对算法的审查可能比较困难,也可能会付出很大代价。但是我们可以要求算法的使用者或者设计者对一些算法数据进行报备。比如中国人民银行、银监会、证监会、保监会和外汇局联合出台的《关于规范金融机构资产管理业务的指导意见(征求意见稿)》,其中明确要求如果运用人工智能技术展开资产管理服务,必须报备智能投顾模型的主要参数以及资产配置。

(三)删除具有识别性的数据

个人信息最主要的是特点是可识别性,如果去除这些特征,仅仅利用大数据进行分析的话,那么对于造成歧视的几率比没有去除个人特定身份的数据分析要大大降低。监管部门应当建立具有可识别信息的数据库销毁制度。在进行数据录入的时候,可识别性和不可识别性的信息应当分别录入两个数据库中,对不具有可识别信息的数据库可以应用到各种研究之中。而对于具有可识别性的信息,应当在数据完成录入后永久性的删除,任何人不得再次获取这些具有个人信息的数据,避免其不当利用。

(四)完善人工智能相关制度

为了避免算法歧视,我们可以通过对算法系统的设计者或者使用者进行问责和惩戒。行政机关可以依据相关法律进行劝诫,惩罚或者教育。面对人工智能时代的到来,我们需要考虑对算法的规制,算法是人工智能的核心,我们建议增加对人工智能行政规制的主体范围。结合我国的实际情况,我们可以参考将主体资格不仅仅限于行政机关,还可以将行政主体扩大,比如某些社会组织。算法的发展带来的民事侵权、行政违法以及行政侵权案件,面对这些案件到底是人为还是算法导致的问题并不容易,在举证责任上也很困难。所以我们要明确算法歧视和人工智能致人损害时的责任分配规则。准入制度越严格,开展研究所需要的时间也就越长,研发的速度也是随之减慢的,但是在人工智能领域,准入制度是必不可少的,我国应当尽快建立和完善人工智能的准入制度。

五、总结

人工智能发展如火如荼,人工智能也会是更多国家的战略选择,基于人工智能的教育将会全面普及。2017年7月8日印发并实施的《新一代人工智能发展规划》指出要支持开展多种多样的人工智能科普活动;美国NSTC在《为人工智能的未来做好准备》提出全民计算机科学与人工智能教育。伴随着人工智能的发展,也出现了很多歧视问题。在人类社会中偏见是不会消失的。人工智能终究是来自人类,所以人工智能的偏见也不会消失的。在人工智能越来越与我们的生活融入的时候,甚至是决定我们的生活的时候,我们要通过各种手段来预防和补救其带来的损失。

作者单位:安徽大学

猜你喜欢

百度公平算法
愿你金榜题名,更愿你被公平对待
笨柴兄弟
Travellng thg World Full—time for Rree
必须公平
百度年度热搜榜
不懂就百度
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点
百度年度人气萌娃