APP下载

价值、技术与审查的三维审视:算法决策的伦理风险与规避策略

2022-12-26陈虹冰蒋福明

昆明理工大学学报·社科版 2022年1期
关键词:个体决策主体

陈虹冰,蒋福明

(南华大学 马克思主义学院,湖南 衡阳 421001)

当前,人们的衣食住行都在享受着各类APP提供的智能服务,这种对用户的个性化服务,是通过过滤大量的个人信息实现的,算法决策是这一过程的核心。算法技术凭借着对数据筛选、相关性分析的优势,被广泛地应用到各种场景。然而,算法决策是一把双刃剑:一方面,通过搜集、分析、处理海量数据,它能辅助政府、企业和个人做出更好的决策;另一方面,非理性地应用算法决策也引发了一系列的伦理风险。如何能够在享受算法决策带来便利的同时保护人类自身免受侵害,这是生活在智能时代的每一个人都需要积极思考并面对的时代课题。

一、算法决策及其应用

(一) 算法决策的特性

从原始社会、农耕社会,到工业革命、电气革命时代,再到现今的信息时代、算法时代,人类决策伴随着人类社会的发展也经历了经验决策、科学决策、技术辅助决策和算法决策这几个阶段。在原始社会,人们依靠自身的感觉器官来感知世界,根据自身经历来认识世界,通常是通过占卜、经验进行决策。工业革命时代,人对工具的使用发生了很大的变化,于是人们开始做出一些基于科学知识(如数学真理、物理知识)的科学决策。到电气革命甚至是信息时代,实际感知的信息变得多样,感知时间、空间的信息也变得多样,人们开始依靠科学技术来辅助自身对外界的感知,如使用显微镜可观测微小事物、望远镜可观测远距离的事物,这个阶段是技术辅助决策。在算法时代,数据信息爆发增长,计算量的需求变大,人们开始依靠算法技术来进行决策。

算法决策是与自然人决策相对立的概念,意指利用计算机技术、算法程序、深度学习等方式来处理基于用户足迹形成的大数据,凭借其自主性做出决策的行为[1]。相对于自然人决策,算法决策具有效率高、成本低、应用广等不可替代的优势。作为算法决策基础的机器学习算法,具有三个特性:一是自我学习的特性。算法运行的结果并不依赖于人类预先设置到预测中的每个变量。事实上,只要学习算法在运行,人类就无法控制它们如何组合和比较数据,算法可以自行决定组合方式。二是黑箱属性。人们难以直观地理解机器学习分析的结果,算法也无法提供其决策背后的因果解释。三是快速性和自动性[2]。与当今数字时代的其他计算策略一样,机器学习算法做出决策的过程是快速和自动的,甚至可以绕过人类的考虑和决策,这也是其被广泛应用的原因所在。有时,算法会以一种完全自动化的方式进行决策,不需要人类参与其中。例如,一个垃圾邮件过滤器可以从一个人的电子邮件账户中自动过滤出垃圾邮件。有时,算法决策是部分自动化的,人类通过算法辅助做出决策。例如,算法对客户的信誉进行评估,银行员工结合评估来决定是否给客户贷款。

(二)算法决策的优势

在信息爆炸式增长的时代,算法可以帮助人们在信息海洋中准确、快速、有效地整合有用的信息,辅助人类精准有效地做出判断和决策。对于决策而言,算法具有两个明显的优势:一是算法拥有超强的数据运算和统计能力;二是算法能发现诸多变量、参数之间的相关关系,并依据这种强相关关系进行预测。由于算法决策具有人工决策不可比拟的优势,算法决策也越来越广泛地被应用于各种场景,使得我们的日常生活更加便利、智能。例如,在外卖行业,美团、饿了么、大众点评等企业,运用算法决策来提高配送效率;在新闻传播行业,快手、抖音、“今日头条”等平台运用算法进行个性化精准推送,以提高新闻资讯的传播效率;在电商行业,淘宝、拼多多、京东等购物平台利用算法了解客户的消费喜好和习惯进行个性化推荐,以提高经济效益。此外,算法决策还被广泛应用于公共治理领域。例如,公安预测警务系统利用算法对历史犯罪数据和可能影响犯罪的各种因素进行相关性分析研究,预测在未来特定时空范围内可能出现的犯罪状况和发展趋势,辅助公安开展刑侦、维护社会治安等工作;居民养老保险在线审核系统利用算法使得参保人员实现随时随地办理资格认证、查询等业务。事实证明,算法决策以悄然又迅猛的方式结构性地渗透到社会生活的各方面。

二、算法决策的伦理风险

算法决策意味着人逐渐将决策权交付给算法技术,这种对决策权的让渡是人类主动对自身特有的主体性的放弃,会对个人甚至是整个人类世界产生深刻的影响,带来一系列伦理风险。在国内外学者对算法决策可能引起的伦理风险进行的探究中,国外学者Andrew Tutt认为,算法决策会导致问责难的问题[3]。国内学者孙建丽认为,算法决策会引发“信息茧房”、隐私泄露和歧视风险[4]。

随着算法决策在各个领域的广泛应用,算法决策引起的弊端也日益凸显:算法自动关联引发个体遭遇非自愿泄露隐私风险、算法决策弱化人的主体能力、算法权威压缩人的自主选择空间;大数据杀熟严重地侵害消费者权益。

(一)算法自动关联导致“非自愿泄露隐私”

人与动物不同,无法像动物那样依靠先天的、特定的器官和本能适应环境的挑战,为了弥补自身的缺陷,获得安全与稳定,它必须培养适应能力,正是这种先天的脆弱性和本能贫乏使得安全需求成为人首先要解决的问题,也是这种安全需求导致了技术的产生。也就是说,技术的诞生本应满足人的安全需求,但是算法自动关联下的“数字画像”和“网络监控”,使得个体遭遇非自愿泄露隐私的风险,背离了技术原有的价值需求,增加了人的不安全感。

1.算法自动关联形成的数字画像,使得个体遭遇非自愿泄露个人生物性敏感信息的风险。库帕认为,数字画像是建立在个人数据信息之上,真实反映用户的虚拟模型[5]。算法在数据收集、模型构建和模型使用的各个阶段是相互关联的[6],这种关联是自动形成的,无需获取数据主体的“知情同意”,也不需要获得个人的授权,人甚至难以与这种关联相抗衡。算法通过大数据向每个用户设置各种标签来刻画用户的数字画像,记录每个用户的身份信息、个人兴趣、薪资水平、消费习惯、生活方式等。算法自动关联能对个人的部分数据信息进行交互分析、深度挖掘,进而刻画出数据主体的整体形象,这种画像能对数据主体在特定时间和空间内的行为进行还原,会使得个体遭遇非自愿泄露个人生物性敏感信息的风险。数字画像中含有每个人唯一且不可更改的生物识别信息,例如人脸、指纹、语音等。这些生物识别信息一旦泄露就意味着终身泄露,由此产生的风险和危害不可估量。无需置疑的是,与家庭住址或者手机号信息的泄露相比,带有个人唯一性的生物识别数据的泄露所带来的潜在安全风险更为严峻。

2.算法自动关联下形成的网络监控,使个体遭遇非自愿的公共暴露个人隐私的风险。作为生活在智能时代的社会人,需要以牺牲自己的一部分个人信息和隐私作为代价,来换取现代技术所带来的高效、便利。因此,自愿牺牲一部分隐私达到社交目的也是不可避免的。但这个红线在于,是否是个体在知情同意原则下自愿交付出个人信息,是否能保障个人隐私的安全。无所不在的通信设备、路边及闭路监控系统的摄像头都能对个人进行物理观测或追踪。2021年,央视3·15晚会曝光了多家知名商店安装人脸识别摄像头,这些摄像头能自动获取消费者的人脸信息并自动生成编号,这一切都是在消费者毫不知情、非自愿的情况下进行的。这些人脸信息一旦被泄露,将严重威胁人的隐私安全。虽然有关法律规定,在处理个人信息时应遵循正当、合法和必要的原则,但仍然难以避免因单方面收集个人信息所造成的对隐私空间的侵犯。原因在于算法能发现众多的片面化信息之间的相关性,经演算、推断后还原出未经信息主体授权的个人隐私信息。另外,网络应用常以用户必须提供个人信息作为服务的准入门槛。如各类智能APP,要求用户对手机位置、个人相册、通讯录等功能进行授权,尽管这些与其所提供的服务并无直接关系。

(二)算法自动决策弱化个体的主体能力

人的主体能力突出表现在人的主体性地位,主体性是主体的本质特性,是主体在对象性活动中内在力量的外化,能动地改造、影响和控制客体,使客体服务于主体的特性。主体性的内涵主要有两个方面:从主体出发,主体占据主导地位,客体服务于主体;主体本质力量的外化[7]。算法决策在不断地弱化人的主体能力,主要体现在强化人对算法决策的依赖和人面临主体客体化风险两个方面:

1.强化人对算法决策的依赖,削弱人的主体性。现今,算法的身影遍布人类社会生活的各个角落,甚至存在于人类生命的每分每秒中。现代的算法能够安排人们每天的行程,为人们的生活提供各种娱乐和便利。我们使用的每一个计算机软件、程序、APP,背后都蕴含对算法的使用。但是,算法技术对技术人员与非技术人员的主体性影响不尽相同:对专业的技术人员而言,为更新技术,他们需要不断地提高创造力;但专业的技术人员毕竟是少数,更多的非技术人员常在不自觉中强化对算法的依赖,相应地被剥夺了一部分创造力,削弱个体的主体性。审视各种算法决策的应用场景,非但没有提高人们对技术的警觉来获得自身更高的自主性,反倒引导人们向低层次的本能屈服,等待算法给出“最优决策”,使得人逐渐成为依附算法决策的齿轮,而不是积极思考该如何发挥主观能动性进行决策。如果任由算法决策肆意广泛应用而不加约束,很有可能导致算法决策取代自然人决策而令算法权力进一步加强,以致慢慢弱化,甚至彻底吞噬个人的主体性。在这种情况下,如何自主、自发地培养人的主体能力,预防人的主体能力弱化是一个很值得深思的问题。

2.算法技术客体主体化,人被客体化,呈现出一种主体被客体化风险。客体主体化、主体客体化是实践活动过程中主体与客体关系的表征。例如,异化劳动是劳动在资本主义社会这一特定历史阶段的具体表征。对于主客体之间的关系,现代伦理学以将主客二分为核心而展开,义务论聚焦于主体的纯粹意志,后果论则寻求对客体性的理解。算法技术客体主体化是人类运用算法技术改造客观世界的过程中形成的危及人自身主体地位的反作用,使得人失去主导支配地位,呈现出客体化的风险。在算法系统中,人通过数据化被赋予相应的意义,成为算法定义的对象,这种定义并不是从主体角度出发,而是通过可以被计算和预测的客体来看待个人[8]。具体表现在:用户要满足算法的预设条件方能享受其提供的服务;算法的信息筛选机制限制了人的网络空间自由度;算法利用作为“计算组件”的人类来增强自身的权威。算法凭借着特有的运行逻辑,“将每个个体都作为算法逻辑体系下的参数而不考虑个体主体性”[9],反客为主地调节、甚至支配人们的行为,使得人面临主体客体化风险。

(三)算法权威压缩个体自主选择空间

施密特(Hermann Schmidit)认为,技术作用的过程分为三个阶段:一是工具阶段。在这一阶段,主体仍需将劳动所必需的物理能量和智力投入到改造世界的实践活动中,如人在劳作时使用斧头、锤子等工具来节省劳力。二是机器阶段。在这个阶段,技术手段使人的物理能量转化,劳力的输入变得不必要,如工业自动化生产的流水线作业,劳力投入成为非必要的。三是自动机阶段[10]。在这个阶段,智力上的投入也变得不必要。技术由工具到机器再到自动机阶段,逐渐降低了人类的参与度,直至实现完全的自动化。

算法决策处于技术自动机阶段,“正逐渐突破工具属性而进行着实质性的资源调配、作出决策等行为”[11],基本不太需要人类的参与,人被逐渐排挤出决策空间。另外,由算法决策的单向强制性和黑箱性所形成的算法权威使得人无法与其相抗衡,而算法权威又会进一步扩大“信息茧房”效应,人的自主选择空间便在这种双重影响下不断压缩。

1.由算法决策的单向强制性和黑箱性所形成的算法权威,使得人面临被迫忍受压缩个体自由选择空间的窘境。算法的自动决策性,在促使生产者形成高效、快速的效率思维的同时,还对作为对象的数据主体造成个人自主空间缩小的不利影响,使其面临受算法支配的风险。原因在于,算法决策具有较强的单向强制性,数据主体在遭遇不合理的或带有偏见的算法决策时,常常面临着被迫忍受压缩自治空间甚至是退出某一数字领域的窘境。这种对主体在数据接受方面的单向强制性倾向,即所谓的“算法权威”[12]。另外,算法决策过程犹如一个黑盒子,具有不透明性,人无法直接参与算法决策系统的内在流程,也没机会向其做出的错误或者带有偏见的决策提出异议,这也是人缺乏自主选择权的体现。

2.算法权威会加强“信息茧房”效应,抑制人的自由选择权。“信息茧房”这一概念最初由哈佛大学桑斯坦提教授提出,指的是在面对海量信息传播时,公众只关注自己感兴趣的讯息,不关注其他信息,长此以往,便会将自己限制在“茧房”之中[13]。以往,人们主要通过人际传播、传统媒体传播等渠道来获取外部信息。现今,与早期网络时代人主动搜索信息不同,人们获取信息的方式是由算法对用户兴趣偏好挖掘后而进行的个性化内容分发。这种对用户进行的个性化信息推送,将用户锁定在由算法定制的某种同类型的信息圈层中,同类型信息的不断循环出现将用户桎梏在封闭的信息空间,会让用户误以为自己获取的信息是全面且多元的,进而影响用户的自主选择,压缩了用户的自主选择空间。

(四)大数据杀熟损害个体消费权益

大数据杀熟是算法决策应用于商业领域所引发的不良后果,指的是商家通过平台掌握消费者的消费偏好和消费水平后,对数据主体进行大数据分析,将同一商品或服务进行差别定价卖给不同的消费者以获取更大的经济利益的行为,严重地损害了消费者的权益。在互联网时代,网上交易、搜索是人们不可避免的行为,这些行为往往会在平台上留下专属于特定个体的浏览、下单、收藏、评价等足迹。交易平台背后的算法犹如一个信息处理器,它积累、分析这些足迹,并在不同的交易平台之间进行通信、共享和集成,最终形成“大数据”。具有深度学习能力的算法根据已形成的“大数据”,对不同群体或者是特定的个体进行推送或定价。例如,同样的一份外出行程单,网约车平台对价格不敏感的乘客收取更多的费用;相同的一份外卖订单,外卖平台对同一地区的不同客户收取不同的服务费;同样的一份商品或服务,平台对使用高端手机的客户收取更多的费用。

大数据杀熟主要有两种表现形式:一是差别定价,二是特定推送,诱导消费。

1.差别定价的实现途径主要有三种:一是以客户所使用的设备为根据进行差别定价。例如,在滴滴打车系统里,苹果手机打车的费用最高,安卓手机价格越高,打车越贵;二是以客户消费时的位置和场合为根据进行差别定价。如果你所处的地理位置附近的商场少,算法便会判定你购物不方便,然后为你想要购买的商品加价;三是以客户的消费水平和消费频率为根据进行差别定价。如果你过往购买的商品价格偏高,或者在短时间内对同一件商品进行多次搜索,大数据也会依此来对你的商品进行加价。

2.诱导消费的实现途径主要有三种:一是分析消费者的价格敏感度,对“高净值客户”隐藏性价比更高的商品或服务;算法可以控制商品的可见性,直接屏蔽价格低的商品,客户只能被迫购买价格高的商品;二是分析消费者的消费偏好,然后反复推送,从而激发消费者的隐性消费偏好。算法系统注重用户搜索使用的词语及其相关性,可以通过对用户数据进行交互分析来发现个体想要隐藏或者忽略的个性特征,做到比用户更了解用户。算法预测用户的购买欲望后对其进行针对性推送,牵引式激发消费者的隐性消费,使得那些甚至消费者自己都没意识到的购物需求被挖掘出来;三是利用算法的自主学习和预测功能,实现各种搜索界面协调一致,限制客户的多样化选择。人类社会生活的各个领域都被大数据所包裹,掌握着相关数据的互联网巨头凭借着数据资源,不断演变算法,强化竞争优势,获取消费者剩余,对消费者的权益造成了一定的伤害。

三、算法决策伦理风险的规避策略

造成算法决策伦理风险的原因不是单一的,它往往是多种因素共同作用的结果,应从价值、技术和审查多个维度寻求防控算法决策伦理风险的策略:第一,关于技术是否具有价值属性的讨论一直是学界存在争论的话题,尤其是在现今科学技术发展如此迅猛的时代。“算法具有价值属性,持不同价值判断的人会设计不同的算法。”[14]因此,从价值理念的维度对算法技术的伦理嵌入就变得有可能,设计人员秉承良善的价值理念来设计技术或许是应对算法决策伦理风险的有效途径。第二,技术与伦理学有着密不可分的关系,从技术对人类实践的调节作用层面而言,暗含着一定价值的技术参与了人的行为伦理学,亦理应从技术的维度寻求防控算法决策的伦理风险的措施。第三,正如上面提到的在技术应用的过程或结果中产生了一些负面效应,消极地拒绝使用算法决策是不可能的,而应从审查的维度来确保算法决策发挥积极作用。

(一) 价值之维:以人为本,赋予人免受算法决策支配的权利

算法技术作为一种功能强大的集成技术,可以广泛有效地赋能诸多应用场景。然而,我们不应该只关注技术赋能的所带来的正面效应,而忽视技术滥用带来的负面效应。为了实现科技时代下人类美好生活的愿景,秉承“科技之真”与“道德之善”相互协调的价值理念,我们不仅要强调科技赋能,还要重视对个体的赋权,即重视公众权利的实现。与相对孤立且分散的个体相比,政府、企业机构在掌握数据和信息方面有绝对的优势,在这种力量悬殊的情境之下,更应该坚守以人为本的宗旨,重视对个人权利的保障。

1.算法设计人员需要坚守以人为本的宗旨,秉持良善的技术设计伦理原则来设计算法。目前学界就技术的价值属性问题主要存在两种观点:一是技术价值论,二是技术中立论。技术价值论则认为,技术是具有价值属性的,它承载着人的价值取向和判断;技术中立论认为,技术没有善恶之分,在于人以何种目的使用技术。技术价值论基于技术的社会属性来论述技术的价值属性,认为技术内含一定的价值判断;技术中立论则基于技术的自然属性来论述技术仅是方法论意义上的一种工具和手段。事实上,技术是集自然属性和社会属性于一身的统一体,而技术中立论和技术价值论分别从技术的自然属性和社会属性来解读技术本质,将两者简单割裂开[15]。然而,随着技术的发展,我们发现技术存在于设计阶段、应用阶段和技术体系中,是在自然属性与社会属性的交互融合中具有了价值属性。既然技术具有价值属性,那么技术设计人员的价值观念会不可避免地嵌入到他们设计的技术当中。因此,不应仅从技术应用层面去寻求其带来“善”的结果,更应该从技术本身寻求“善”,使技术本身带有“善”的内在基因,进一步实现“善”的价值目标。因此,要想使算法技术从诞生之时就向善,还得从技术设计主体着手,使其牢固树立以人为本、公平公正的设计原则,对算法技术进行道德化设计。

2.应积极培养个体自我赋权意识。自我赋权是社会弱势群体利用自身的积极性、能动性、主体性赋予或充实自己权力的体现。在算法大行其道的时代,缺乏专业知识与敏感性的大部分社会公众都沉浸在算法所带来的技术红利的喜悦中,忽视了其对个人造成的潜在威胁,这种对技术的无意识放任了算法决策对人的自主权的入侵。培养个体自我赋权意识,有利于唤醒人对算法决策的警惕性,批判性地对待算法决策,保持一种独立思考的能力。另外,由于算法决策形成的“强者权利”与个人力量对比悬殊,亦应赋予个人相应的权利,使个体免受算法决策支配的侵害。赋予人免受算法支配的权利,意味着个人面对在黑箱遮蔽下形成的不合理的算法决策时,有权利拒绝或者不采纳其决策,这对实现作为个体存在的人要求被作为个体来对待的基本权利亦有重要意义。

(二) 技术之维:匿名隐私保护算法,保护个体隐私

现代文明的进步带来了日益紧张和复杂的生活状态,人们开始对公共场合变得更加敏感和有界限感,在此基础上,拥有一个自己的相对独立和私密的空间变得尤为重要。隐私权是基本人权,隐私被侵犯会使人们遭受精神上的痛苦和困扰,与纯粹身体上的伤害相比,有过之而无不及。现今,保护个人隐私比以往任何时候都显得更加地刻不容缓。依靠法律手段来保护个人隐私是必须且强有力的,但是法律手段也有诸如难以查处有些行为、相对滞后等缺陷。既然是技术的进步为侵犯个人隐私提供了便利的工具和途径,同样地,也应该积极地从技术层面为人们的隐私寻求保护。

大数据的广泛应用可能会对数据安全和隐私构成一定的威胁,而现今的数据安全不仅再是停留在以往对数据损坏或丢失的担忧上,更重要的问题在于,数据是否会被盗用甚至滥用。由于网络服务自身的技术特点和日常的网络活动都带有身份标识,网络行为便演化成数据。造成个人隐私泄露的主要原因在于滥用个人数据。那么,对于这种数据,是否可以通过对数据匿名化的方式使不同的场景应用接触到数据之前实现隐私保护?是否有一种可以保护个人隐私数据并保证数据集的可用性的算法?隐私保护匿名算法便在这样的背景下诞生。

起初,匿名化算法意在去掉集中起到唯一标识作用的数据信息,只公开包含类标识信息(QI)和敏感属性信息(SA)的数据集,但这种匿名作用会在遇到链接攻击时失效。为降低实施链接攻击的可能性,有人提出了k-匿名(k-anonymization)隐私保护算法,该算法要求发布的数据存在一定数量(至少为k)的在类标识符上不可区分的记录,旨在通过去除或者泛化处理一些类标识信息来实现更好的匿名效果来保护个人隐私。但是,由于k-匿名算法对敏感属性算法未做任何的限制,攻击者仍然可以通过同质攻击和背景知识攻击来访问个人数据。于是,l-多样性匿名保护算法被提出,要求每个等价类中至少存在l种互不相同的敏感属性。简言之,k-匿名和l-多样性算法都是通过对数据集进行干扰处理以实现隐私保护的目的,缺陷在于没法严格定义攻击模式,也无法量化攻击者的背景知识,导致这两种算法只能在某些特定场景下运用,存在一定的局限性。后来,Dwork等人提出了差分隐私保护算法,该算法根据隐私函数来保护数据集,基本原理是根据数据失真技术来保护隐私。例如,转换原始数据或者对统计结果添加噪音,是目前较为稳定安全的隐私保护算法[16]。由此可见,从隐私保护匿名算法的初步想法到k-匿名和l-多样性算法,再到差分隐私保护算法,人们从未放弃以技术手段保护隐私的尝试。未来,加强对隐私保护算法技术的研究,亦是有效防范隐私泄露的重要措施之一。

(三) 审查之维:人工干预,矫正算法决策偏差

大数据杀熟是基于商业利益的驱动,人为的力量干预算法决策,引导甚至放任算法做出有利于商家自身的决策。在这个意义上,大数据杀熟是算法决策偏差的结果。算法决策主要包括三个阶段:首先是数据收集阶段,然后将数据用于机器学习以开发模型,即模型开发阶段,最后将该模型用于最终决策,即模型使用阶段。人工介入是从技术审查的维度应对算法决策偏差最为直接的方法,主要体现在对算法决策的三个阶段进行人工干预:

1.对算法决策的数据收集阶段进行干预,保证数据的质量问题。在算法决策引起的伦理风险中,很大一部分原因在于建立算法模型所使用的数据存在质量问题,直接导致算法技术应用产生负面效应。统计学中对数据进行采集有两个重要的点:一是量,二是质。这两者都会影响统计结果的准确度,进一步影响技术的好坏。一般而言,统计数据量越大,得到的统计结果就越准确,此外还要求采集的数据尽可能公平客观,使其具有代表性。如果在数据收集阶段,使用扭曲的数据将会产生一个扭曲的模型,数据集中带有偏见的数据也会在决策阶段重现这种偏见[17]。因此,要对数据进行干预,规范使用数据,尽可能保证数据样本的公平客观。

2.对算法决策的模型开发阶段和使用阶段进行人工干预。自然人应该积极介入模型开发阶段以降低算法决策偏差所带来的影响。例如,自然人可以更正不正确或带有偏见的原始信息。然而,仅在模型开发阶段进行人工介入,还不能完全确保纠正决策偏差的有效性,还需要对模型使用阶段进行人工干预。以人工干预的方式对不合理或带有偏见的算法决策进行纠正,即以“自然人所具备的一般理性和情感”对信息主体的相关信息进行审查。以健康码为例,当公民发现自身持有的健康码所呈现的健康状况与自身实际情况不吻合时,可以拨打12345政府服务热线发起纠错申请,经县级防控指挥部核实,若情况属实便可进行更改。人工干预并不是当消费者觉察到被差异定价后再由人工审核定价的合理性,而是由自然人专家主动监测算法决策的各个环节,防止利润最大化导向下算法决策的“脱缰”,以事前的“主动人工干预”尽可能地避免算法决策偏差所引发的风险。

四、结语

算法时代已悄然来临,相对于人工决策而言,算法决策因其效率高、成本低的优势而被广泛应用于各个领域,变革了人们的生活方式,促进了社会生活的智能化。然而,算法决策在释放技术红利的同时,由此引发的伦理风险随之而来:算法自动关联形成的数字画像和网络监控,使得个体遭遇非自愿泄露个人生物性敏感信息和非自愿的公共暴露个人隐私的风险;算法决策会增强人对算法决策的依赖,削弱人的主体性,呈现出一种主体被客体化风险;算法决策的单向强制性和黑箱性所形成的算法权威,使得人面临被迫忍受压缩个体自由选择空间的窘境,进一步加强“信息茧房”效应;算法决策应用于商业领域放任大数据杀熟,损害个体消费权益。因此,由算法决策引发的伦理风险也迫使我们敲响技术的警钟,反思并警惕算法决策带来的负面效应,应该从价值、技术和审查的维度来审视并寻求行之有效的规避算法决策伦理风险的策略:算法设计人员需要坚守以人为本的宗旨,秉持良善的技术设计伦理原则来设计算法,个体需要积极培养个体自我赋权意识;发展匿名隐私保护算法技术,保护个体隐私以免侵犯;对算法决策的数据收集阶段进行干预以保证数据的质量问题、对算法决策的模型开发阶段和应用阶段进行人工干预以纠正算法决策偏差。总之,算法决策在产品化的过程中得到普及和应用,这究竟是一种用以帮助、增强、改善、提高人类福祉的工具,还是用来伤害和毁灭人类自身的武器?这就要求人们不仅要反思如何更好、更安全、更高效地利用这项技术,更要积极地思考如何更好地防止、阻止和弥补它们所造成的伤害,以确保技术更好地服务人类。

猜你喜欢

个体决策主体
强化述职评议 落实主体责任
论碳审计主体
为可持续决策提供依据
何谓“主体间性”
关注个体防护装备
明确“因材施教” 促进个体发展
决策大数据
决策大数据
诸葛亮隆中决策
略论意象间的主体构架