以价值驾驭算法而非让算法动摇价值
2020-02-25阴卫芝李小趣
■阴卫芝 李小趣
算法的影响、塑造用户价值观的强大而无形的作用力,已给传播秩序、国家安全带来诸多的挑战与冲击。对算法价值质疑,常常集中于技术本身。但是,算法技术只是平台价值的“替罪羊”,对算法的规制,归根到底是对人的规制,是对信息传播过程中人与人关系的调节。
作为价值塑造者的算法
算法技术自应用以来,就被认为存在“黑箱”问题,数据采集、运算机制设计与价值排序的过程被技术遮蔽,人们获取的信息似乎仅受到算法技术的自主决策。其实,算法的实质是“包含一系列数学规则、通过预先设定的步骤模拟人类决策过程的自动化程序”。①“预先设定”的表述已经透露,算法“自主学习”“自动化决策”的过程,首先需要人为设计。算法产生的价值偏向不是“自动”的,而是存在人的价值判断和选择。
在民商法领域,有“刺破公司面纱”的说法,在公司管理不善,作为自然人的股东与作为“法人”的公司界限不明时,股东应当对公司的债务承担连带责任。在算法技术与开发者间,同样存在这样一层“面纱”——算法的价值选择本是“自动决策”的结果,但当开发者将自己的某些价值判断“植入”算法,开发者就有义务对算法的价值偏移负起“连带责任”。②
算法的价值选择体现在算法形成“排序、分类、关联和过滤规律”③、满足用户的个性化信息需求的过程中。换言之,算法成为平台信息生产过程中的“把关者”,把关人既包括平台的决策者,也包括具体的算法工程师。算法机制中蕴藏的动摇主流价值观的风险,来自算法研发和应用过程中的价值冲突。
算法价值风险的三重来源
算法作为一种价值观,其价值引导的复杂流程受到一定的技术遮蔽,但仍然可以分析出以下三个方面。
1.算法强化社会固有偏见。算法的深度学习,离不开海量数据的“喂养”,而它依据的“数据池”本身就带有结构性的缺失和偏向,这种价值偏向源于人类社会长期形成的价值观。《自然》杂志曾用“Bias In,Bias Out(偏见进,偏见出)”形容当下的数据环境,算法无法“清洗”掉性别歧视、职业歧视、种族歧视等固有的价值偏差,反而会将这些偏见“固定”在自身运行机制内。比如,亚马逊公司曾试图利用算法筛选简历以减轻负担,但由于录入的5000 份达标的简历中,男性占比较高,于是算法自动将性别识别为“显著的”关联变量,使之成为评价标准,给同等条件的女性打出更低的分数。这是算法“学习”人类偏见的典型。邵国松等学者认为,算法复制歧视性的历史记录,会形成“输入-歧视-输出”的恶性循环,反而“导致弱势群体越来越被无情排斥,加剧现存的社会不公平现象”。④
2.算法研发阶段难以规避的利益冲突。平台的算法设计被宣称为“商业机密”,秘不外宣,因而也被称为“算法黑箱”。“黑箱”的运作意味着算法在研发阶段缺乏监督,“平台的价值选择可以通过排序、分类、关联和过滤的自动决策过程,隐秘地嵌入算法中。”⑤平台的价值选择必然包括平台自身的利益诉求,但这种利益诉求与社会公益时有冲突,“艾莎门”就是典例。以《冰雪奇缘》主角艾莎等卡通人物为主角,却隐含大量血腥、暴力、性爱内容的“儿童邪典动画”在Youtube 平台大量存在,不仅没有被平台算法判断为“儿童不宜”,还屡屡登上Youtube Kids(儿童视频)的热门推荐。许多专家质疑,其背后可能有一个成熟的产业链,而Youtube 是利益相关者。国内平台公司同样面临着类似的利益冲突。算法的“个性化推荐”功能,可以对信息进行评判、筛选与排序,被“选中”到信息流前端的信息,可获得更多注意力,实现利益变现。像“邪典动画”这样低俗、猎奇、不符合主流价值观的内容,同样可以收获大量点击,这就意味着平台需要在“流量至上”与“价值至上”之间做出抉择,错误的选择会导致整个社会价值观的冲突和震荡。
3.用户是算法的贡献者,也成为算法的“被算计者”。根据用户行为习惯和选择偏好形成的“用户画像”,是算法信息分发的重要依据。用户频繁点击的信息类别、停留在某个页面的时长、经常参与的话题,均可以被平台“捕获”,成为商品本身,被平台卖给广告商实现“关注变现”;同时,用户作为贴上了无数标签的“数据人”,在被平台精准服务的同时,其所创造的各种数据,也源源不断流入“数据池”,成为新一轮的算法形成的依据。这种由全体用户共同形成的、不断修订的算法,带有每个用户自身的价值偏见。而用户一方面被算法塑造、受算法价值的影响进行“真实决策”;另一方面又在提供强化这种偏见的新的信息。算法价值观就在这样的循环当中,形成一种自由的、不加控制的价值观培育机制。
算法价值纠偏思考
算法的滥用正在引起价值观的偏移,全世界都在面对这一挑战。人类期待算法能创造平等、公正的信息环境,各国学者、立法者、管理者也正在从法律、规则中想办法解决这一问题。
(一)规范化的解决路径
通过法律制度和行业规范实现算法治理,国外已有部分有益尝试。2016年,欧盟率先通过《全面数据保护法》,将解释权作为提升算法透明性与可归责性的关键机制。该法规定,算法平台应当告知用户算法对信息的处理逻辑、预期后果以及“用户画像”的必要信息,以法律保障用户的知情权和自主决策权,“数据主体有权反对完全依靠自动化处理(包括用户画像)对数据主体做出具有法律影响或类似严重影响的决策。”⑥这是从权利救济的层面保障用户自主权。2017年,美国计算机学会公众政策委员会公布了提升算法透明性的6 个标准:用户可知情、信息可获取/补救、问题可归责、程序可解释、标准可证实、决策可备案、模型可验证。⑦这是将算法研发的程序分解成具体步骤,并对每个步骤提出相关伦理要求。这些既有的伦理规范,可为我国相关制度建立提供参考。
“中国人工智能新闻伦理的建构,应该加入现代的、东方的、发展中国家的、特别是有中国特色的传统伦理和新闻理论。”⑧我国有关部门出台了《互联网新闻信息服务管理规定》等法律法规,用以规制算法平台出现的假新闻、低俗化等具体问题。有学者提出,民法典有关个人信息权的规定,如果可以限制平台收集种族、宗教、性取向等敏感信息的行为,有利于避免“算法歧视”。⑨但民法属于私法领域,维权有赖于用户主动行使权利。在公众媒介素养有限的情况下,算法伤害往往是隐蔽的、不易察觉的,如果仅用民事法律进行算法规制,很容易造成权利的“沉睡”。此外,算法的价值偏向所侵害的法益属于社会公益,是社会价值观的整体失范,而非特定人的特定利益。所以算法的研发、应用,还需纳入公法领域进行规制,由相关部门主动监管,提升算法透明性,减少“算法寻租”的空间。
(二)道德化的解决路径
法律是一种事后救济,而价值风险不同于一般的风险,价值偏移的影响伤害巨大,难以彻底消除。因此,应对价值风险,需要以行业价值观引领算法开发、应用,实现事前预防。
1.为算法的数据采集设定合理的价值标准。虽然大数据是现实社会的折射,只要现实中仍然存在种种道德问题,数据中的价值偏向就难以根除,但是算法对数据的采集和呈现是可控的。以上文提到的性别歧视为例,如果技术人员预先为算法的深度学习设定“不可变项”,比如种族、性别、国籍等,就可以避免算法以此作为筛选的标准,实现基础的公正性。在新闻传播领域,算法采集信息并分发的过程同样需要遵循基础的价值原则。一方面是自动识别包含了色情、暴力、恐怖等不良价值观的内容并拒绝采集;另一方面,则是为算法的信息采集设定“优先级”,让符合主流价值观的内容可以被优先采集和呈现。
2.为算法的程序设计“植入”正向价值理念。技术本身就是一种社会文化的选择,算法作为信息分发的“把关者”,其“算出”的信息整体,体现着算法技术的价值属性。有学者研究了今日头条上的健康信息传播,发现算法的价值倾向主要表现为信息的“可见性”,用户针对自身需求而搜索的健康信息,经常不被算法“记住”。信息流中具有更大“可见性”的是热点健康话题,这些内容中“标题党”和健康谣言泛滥,而且时常涉及癌症等容易引发恐慌情绪的严重健康问题。⑩“选择”是一种价值判断,选择这条信息、不选择那条信息本身,就凸显了“选中”的信息所传递的价值。当算法技术标准的设计师将这种标准置于“黑箱”中,就会给信息的使用者形成算法所设定的信息环境,这种信息环境也只能培养出特定的算法价值观。
价值观是一个场域内部的共同理念,以非强制的方式,引领共同体的自觉行动。只有以价值共识引领行业发展,平台公司才有更大的内生动力,进行技术治理,实现“自我纠偏”。目前,阿里巴巴、腾讯、今日头条等都开发了“谣言粉碎机”等用以整治虚假信息的产品,体现了企业对真实性的追求。开发者对信息价值的重视和倡导,才是“技术道德化”的最佳路径。
结 语
学界曾提出“信息价值观”概念,指出不同的算法意味着不同的价值观考量,算法所引导的传播关系,就是算法价值观的体现。⑪实践中,算法工程师与研发人员大多并不认同甚至不了解新闻传播职业价值引领的责任,更未能将传播秩序与国家价值安全作为技术之上的战略考量。因此,在行业内形成统一的“信息价值观”非常迫切。
“信息价值观”是信息聚合平台与新闻职业传播行业价值的“最小公倍数”,而非“最大公约数”;“信息价值观”是一种价值上的“求同存异”,是一套整合主流价值观、平衡各方利益的具体、明确、完整的价值体系。正如救死扶伤是医生职业公示的标准、真实客观是新闻职业的标准、维护委托人的合法权益是律师职业的标准一样,“信息价值观”也应以简洁的理念对外公示。“技术中立”不是利益交换的荫蔽,也不能作为规避社会价值引领责任的主张。只有在明晰的价值观引领下,技术才不会成为脱缰野马。以价值驾驭算法、而非让算法动摇价值,需要监管部门、行业的共同努力。
注释:
①邓建国:《机器人新闻:原理、风险和影响》,《新闻记者》2016年第9期。
②此处的“连带责任”并非特指法律责任,而是喻指伦理和社会价值影响责任,也即“算法开发者应当对算法价值风险负责”的伦理主张。
③方师师:《算法机制背后的新闻价值观——围绕“Facebook 偏见门”事件的研究》,《新闻记者》2016年第9期。
④邵国松、黄琪:《算法伤害和解释权》,《国际新闻界》2019年第12期。
⑤方师师:《算法机制背后的新闻价值观——围绕“Facebook 偏见门”事件的研究》,《新闻记者》2016年第9期。
⑥邵国松、黄琪:《算法伤害和解释权》,《国际新闻界》2019年第12期。
⑦ 原 文 参 见 https://www.acm.org/binaries/content/assets/public- policy/2017_joint_statement_algorithms.pdf。
⑧蒋晓、韩鸿、兰臻:《中国语境下的人工智能新闻伦理建构》,《西南民族大学学报》(人文社会科学版),2019年第6期。
⑨石佳友:《人格权立法的进步与局限——评〈民法典人格权编草案(三审稿)〉》,《社会科学文摘》2020年第2期。
⑩聂静虹、宋甲子:《泛化与偏见:算法推荐与健康知识环境的构建研究——以今日头条为例》,《新闻与传播研究》2020年第9期。
⑪师文、陈昌凤:《新闻专业性、算法与权力、信息价值观:2018 全球智能媒体研究综述》,《全球传媒学刊》2019年第1期。