人工智能背后的伦理秩序建构
2023-03-10王林生
王林生
人工智能技术在文化领域的广泛应用,提升了文化生产的效率,丰富了内容呈现的形式。2022年10月,工信部发布实施《虚拟现实与行业应用融合发展行动计划(2022—2026年)》,意味着新一代智能信息技术将在生产、生活中发挥更大的作用。同时,需要高度警惕的是,智能虚拟技术作为一种异质性因素,在融入文化生产、传播、消费的使用中会产生不可回避的伦理和社会问题,如邓丽君虚拟人演唱会、“一键换脸”、脸书(Facebook)“AI语音失控”事件等,预示着人工智能背后的伦理观的建构已迫在眉睫。
一、人工智能技术应用陷入“技术中立”原则的困境
以“一键换脸”为代表的人工智能虚拟技术的应用,之所以能成为一个事件而引起轩然大波,其对传统伦理观念中文明底线、安全底线和信任底线的挑战,体现出人工智能在发展与实践中的伦理缺失。究其本质,这些案例彰显出所谓“技术中立”原则在人工智能发展与实践过程中或隐或显的存在。
从技术发展史的进程来说,“技术中立”原则并非是新近才出现的判定标准。“在整个技术创新的历史中,技术巨匠们常常否认自己的道德责任。”[1]如何认识技术在人类社会经济发展中的作用,始终关乎对技术应用的价值选择。20世纪中期以来,世界对技术究竟是“天使”还是“魔鬼”的探讨达到了一个新高度。对技术持有的截然相反的认识态度,体现出人们对技术效应的不同理解,而在认定技术的责任划分方面,“技术中立”都作为重要的原则为技术辩护。总体来说,“技术中立”原则鼓励技术创新,在内涵上坚持“功能中立、责任中立和价值中立”[2],在新技术的应用中,新技术的创造者和使用者也往往借用“技术中立”之名推卸自己的道德伦理责任。1984年,“环球电影制片公司诉索尼公司案”使“技术中立”原则在司法责任认定中得到充分彰显,该案判决认为“为了在家庭中‘改变观看时间’使用录像机录制电视节目构成对版权作品的‘合理使用’;索尼公司出售具有‘实质性非侵权用途’的录像机并不构成‘帮助侵权’。”[3]此案确立的“技术中立”原则为此后涉及技术侵权的案件频繁引证。在有关“一键换脸”等人工智能的实践与讨论中,其研创者也借用“技术中立”原则为自己辩护,技术中立主要体现在功能、责任和价值三个方面:
(一)技术研创环节强调功能中立
功能中立是从技术研创或生产层面坚持技术本身的功能性创新,强调功能本身的特性及其创新性,而忽略其可能存在的负面效应。过分强调功能中立,会造成片面侧重功能与技术的结合,彰显技术在社会经济生活中的决定性地位,最终功能的中立会导致科技知识的异化。“拥有超级智能后,人工智能会变成神一般的存在”“人工智能成为世界的统治者”等相关言论,常见于各网络媒体,尽管这些标题不免具有一定吸引眼球、引流量的噱头,但也体现出整个社会或业界对人工智能功能推崇的倾向,彰显了社会的“技术性”特征和“技术性”需求。而一旦社会的一切“需求”得到技术的“充分关照”,那么语言、消费、生活、认识等各领域均会成为被技术“设计”的对象,为人常知的“大数据杀熟”已展现出现代互联网智能信息技术对人们日常生活的“掌控”。
(二)程序运行环节强调责任中立
责任中立是从技术程序运行层面坚持技术功能与实践后果的分离,即技术的创制者并没有主观做恶的意图,因此,不必承担技术作用于社会所产生的负面效果。上述提及的“环球电影制片公司诉索尼公司案”中录像机的自主录制,以及“泛亚诉百度音乐盒侵权案”中百度音乐盒歌词搜索服务”等事件,被诉方均以“技术中立”为原则为自己辩护。而“一键换脸”的某软件更是在其协议中写明:“若您侵害他人名誉权、肖像权、知识产权等合法权利……我方可以诉诸行政执法机构或司法机关,追究相应法律责任。若因您违反本协议或本平台的其他规则导致任何第三方损害的,您应当独立承担法律责任并承担损害赔偿责任;本平台及其关联公司遭受损失的,您也应当一并赔偿。”[4]易言之,如果用户使用该软件被人起诉侵犯他人肖像权,与这款软件本身的技术无关,侵权并非其主观意图,无需负相关法律责任,造成侵权或应负法律责任的是软件本身的用户。可以说,这些案例将程序应用的技术设计、数据收集、内容处理、产品生成等流程与实践后果直接分离,未正确援用“责任中立”,忽略技术本身作为一种具有工具性和目的性的编码系统在社会经济发展中的中介作用。
(三)社会效益环节强调价值中立
价值中立是从技术的经济社会效益层面表现出不以盈利为目的,或表面上呈现出不能盈利的表象。有论者认为:“技术的价值涉及一个变动的和无法穷尽的评价领域,合理的价值判断需要适当的价值理论和方法论。”[5]这意味着衡量人工智能价值的标准多种多样,判断标准不同所得的结果也不尽相同。在所有价值标准选择中,经济上是否牟利是最为常用的标准之一,而这一价值标准在“一键换脸”案例中也得到体现。尽管“一键换脸”的某软件的开发者有通过该软件增加营收的目的,希望以其社交产品拉动用户增长,给营收注入强心针[6],但却在其微博上不断“卖惨相”。“卖惨相”虽然有与用户互动的色彩,但在文字内容上却传达出运营不易、入不敷出的信息,消弭了其在经济效益上的价值追求。其实,无论是“不赚钱”还是“卖惨相”,都是在经济价值效果上有意为自己标明“价值中立”的手段,以抵制人们对其作出道德伦理的评判,进而将技术本身与社会生活实践割裂开来。
整体而言,“功能中立”“责任中立”和“价值中立”在技术的研创、运行和效益三个层面为“技术中立”原则提供了伦理架构和合法性辩护。其实无论是哪种维度,相关案例中人工智能的研创者都是独立地把人工智能技术从社会生活实践中脱离出来,将其视为一个纯粹的、脱离社会经济实体的变量,“工具—独立”成为“技术中立”原则坚持的出发点和立足点。
那么,在“工具—独立”的整体导向下,有意或无意忽视信息技术作为社会秩序重要组成部分的存在,就会成为一种现实。但是,世界是相互关联的,技术不可能脱离于社会生产生活实践,尤其是万物互联的时代,人工智能将以前所未有的速度融入并影响我们的生活。马尔库塞认为:“技术的‘中立性’的传统概念不再能够得以维持。技术本身不能独立于对它的使用;这种技术社会是一个统治系统,这个系统在技术的概念和结构中已经起着作用。”[7]因此,应在社会经济的整体语境中思考人工智能与经济社会发展的复杂关系,而不是回避人工智能植根于决定其社会应用的制度安排之中的现实,更不应轻视技术在整个社会经济生产方式和文化生活方式中所发挥的作用和应负的道德伦理责任。恰如哈姆林克所说:“是否会利用信息通信技术的潜力来支持人类发展,这更取决于对技术的制度组织,而不是其技术特性本身。”[8]某种程度上,人工智能技术实际的社会使用受各种制度总体性安排的影响,因此“一键换脸”等案例暴露出仅孤立地坚持“技术中立”原则,实是当今社会日益把科学技术作为纯粹追求目的、提升效率手段的集中体现。
二、人工智能伦理秩序的建构维度
人工智能是一种社会性存在,受社会整体政治经济文化制度总体性安排的制约,因此,正视人工智能技术及其相关产业的伦理诉求,尽可能杜绝“一键换脸”等不良现象引发的人们对人工智能的抵制与质疑,是推进人工智能与其他产业深入融合,赋能“万物互联”的重要保障。
本文认为,人工智能伦理秩序的构建,要把技术建立在社会经济文化发展的基础之上,强调伦理道德在互联网空间的作用发挥,并依据具体的历史文化传统、风俗习惯、行业规范、法律法规以及美德,对具体情境中的技术产生的后果进行认定。强调技术与社会生产生活、改善民生之间的互动关系和紧密联系,伦理责任的选择与认定是一个反复和动态的过程,依据时间、空间以及技术实现条件的变化而变化。整体而言,具体内容包含生产关联、运行关联和效应关联三个层面的旨向。
(一)生产关联责任层面,注重技术研创者的动机
生产关联责任是指从技术研创角度,强调研创者的生产动机对技术本身所负的责任,这是构建伦理规范的一个重要组成部分。技术研创是社会再生产的起点,决定着技术产品的传播、应用等。技术是人类创造的直接结果,反映人类科技进步和社会经济发展水平。生产关联责任侧重生产研创的合目的性与合法性,从伦理角度规范技术生产主体的行为及其应肩负的责任,集中体现为生产研创者主体的道德伦理修养。爱因斯坦认为:“在我们这个时代,科学家和工程师担负着特别沉重的道义责任,因为发展大规模破坏性的战争手段有赖于他们的工作和活动。”[9]因此,技术的生产研创主体要有“道义责任”,在合乎一般社会道德伦理规范的框架内进行技术研发。如果开发者以一种自我安慰、自我放逐和自我麻痹的方式对待人工智能技术,其创造出的成果必然会受人诟病。
即要强调技术创造者与技术本身之间的关联责任。“由技术支持的非正式社会控制能够为网络行为提供公平有效的规范,但是,其前提是代码的编制者和使用者对他们的行为负责。”[10]技术研发者对研发行为负责,有助于从源头上规避技术给人类带来的负面影响。所以,要构建围绕个人、团队,以公共利益、专业信誉、安全健康等为准则的伦理规范,以使人工智能开发者在面临标准冲突时,为开发者运用道德判断作出符合伦理准则与专业实践行为选择提供依据。
(二)运行关联责任层面,注重技术运行的公正性
■ 行走山间|凌福平/摄
运行关联责任是从技术产品本身的角度,突出技术产品在启动、收集、筛选、操作、处理、生成和推荐相关信息时应肩负的责任。产品运行层面的伦理秩序的构建,要强调产品运行的公正、公平和公开性,不能侵犯他人隐私,不能损害他人利益。对于人工智能而言,运行关联责任的主体是智能算法,其核心是构建算法伦理。算法作为实现人工智能的核心方法,“‘算法伦理’通过将伦理道德嵌入到算法当中,以此建立负责任的算法,从而使算法实现社会价值,帮助人类进行正确的决策。”[11]某种程度上,在算法中预设了怎样的价值观和利益诉求,人工智能就会做出怎样的选择判断。在实际的操作中,这种价值观和诉求体现为设计者本人所具有的不可避免的前见和偏见,于是设计者在没有恶意的前提下就会导致数据结果出现一定的偏好或歧视。“Facebook偏见门”“滴滴打车大数据杀熟”等事件,就是根据记录和收集到的数据而对用户实行的选择歧视行为。可以说,以算法为核心支撑的人工智能并不是绝对可靠,严重动摇人们对算法和数据的绝对信任,因此要强调运行关联责任,防范算法黑箱的潜在风险,促进算法的透明化设计。
(三)效应关联责任层面,注重技术发挥的社会效应
所谓效应关联责任,是指技术必须为技术产生的后果负责,不能把技术作为纯粹工具与其带来的后果割裂开来。因此,在这个层面上,效应的内涵和外延已超过前文述及的“价值中立”中“价值”的涵盖范围,而是泛指一切可能造成的结果。在已经发生的许多案件中,涉案对象都企图借用“技术中立”之名逃避给社会带来的不良影响,认为需要规范和修正的只是利用技术手段或要实现的目的。如“百度魏则西事件”中,百度认为搜索结果的排序是由计算机系统综合质量度、信誉评价等因素计算得出的,非百度刻意为之。但人工智能的发展根植于具体的社会情境,为时代政治经济文化制度的总体性安排所决定。因此,人工智能的效应关联责任也必须在具体的社会情境中根据其造成的具体效应进行责任认定,即不仅要关照技术的功能运行,也应兼顾其所产生的社会影响。
总之,生产关联、运行关联和效应关联为人工智能伦理秩序构建起一个可参照的操作性方案,有助于确保将技术滥用的危害降到最低程度。但是需要指明的是,任何道德伦理的选择都没有一个理想或绝佳的方案,任何道德伦理的选择都是可以被质疑的。人工智能是复杂的,这种复杂不仅在于人与技术的辩证关系是永恒的话题,更在于当今时代人工智能的发展得益于人工智能自身的深度学习使其具有了自我构建逻辑的能力。因此,人工智能伦理秩序的建构是一个逐步探索的系统性工程。