人工智能发展的科技伦理反思
2020-03-12
(成都工业学院 马克思主义学院,四川 成都 611731)
2019年7月24日,中共中央召开的全面深化改革第九次会议通过了《国家科技伦理委员会组建方案》等系列文件,并明确指出科技伦理是科技活动必须遵守的价值准则,将组建国家科技伦理委员会提上日程,突出科技伦理在科技活动的战略地位[1]。这标志着我国科技事业正进入伦理引导发展历程,科技伦理的建构与普及也成为现代技术研发的现实必要。人工智能作为现代技术发展的智能高阶化表现,在研究与应用过程中面临着不可调和的伦理问题,造成了社会治理与结构体系发展遭遇多重障碍的困境。这意味着我们应在全新视角下,正视现代伦理道德规范科技行为的作用力,让科技伦理成为保障科学合理性的有效武器。
一、人工智能发展导致的伦理维度偏差
(一)算法的桎梏与偏见
人工智能的快速发展跨越了理论与实践的鸿沟,推动了经济、政治、文化等多重领域的进一步融合,却也致使社会发生异化,而算法的桎梏与偏见便是异化的结果。现代社会实践活动中,信息资源的攫取以及垄断无疑是权威与影响力的表达,而人工智能的算法推演则极大地助推了数据的统筹规划与信息资源的获得。在市场竞争中,常常会出现“马太效应”,即优势企业公司可以利用自身掌握的算法来识别、打击弱势企业形成行业垄断,造成强势企业更强、弱势企业更弱的局面。人工智能算法本身的运行机制是将每个个体都作为算法逻辑体系下的参数而不考虑个体主体性,但算法技术壁垒却让其技术权力表象下潜藏着资本等价值取向性[2]。欧盟数据保护委员会与美国皮尤研究中心曾相继发布人工智能算法歧视调查研究报告,认为当前人工智能算法在收集、分类、整理、分成、解释数据时已相继产生年龄、性别、种族等群体歧视现象。亚马逊集团曾于2014年至2017年间使用了支持人工智能技术的招聘软件来帮助人力资源部审核简历,但经报道后,人们发现该软件降级了包括“女性”一词的简历,含有极大的性别偏见[3]。基于范围过广的数据信息,算法在形成到应用的过程中除了具备基础数据信息,也隐含着未脱敏的不可知属性。牛津大学数据伦理和算法领域研究人员桑德拉·沃彻便曾谈到:“世界存在偏见,历史数据存在偏见,因此我们得到带有偏见的结果不足为奇。”[4]虚拟世界的算法黑箱歧视都较为隐蔽,通过嵌入歧视代码让系统在高科技包装下进行观念的延伸。人工智能自动化识别系统的算法设计结构极为复杂,样本数据采集标准、样本数量平衡、有意遗漏或倾向性选择都让公众意见与梳理的文本材料无法显露以致算法桎梏加剧。
(二)工具理性与价值理性的失衡
工具理性,是指人类在实践活动中为追求效率最大化而利用工具或某种手段实现自身目的。随着科技的不断进步,人工智能的出现极大促进了人们把握事物的精确性与高速率性,导致工具理性思想逐渐扩展蔓延,与以信念价值为行为导向的价值理性慢慢失衡。2016年美国多家公司联合推出“世界首届人工智能选美大赛”,以算法来评价参赛者的美,获胜者却与人们期待的不同,冲击了大众审美观。人类目前所面对的是发展的物质需求与客观世界的应然价值二者之间的矛盾,黑格尔曾说过“熟知”并非“真知”,人类所追求的理所当然的事物一旦缺乏理性的反思,将会成为一种盲目的、无法预期的东西,造成难以预料的后果[5]。人类在恒久以来的人类文明发展进化过程中探索到,工具理性与价值理性两者之间只有获得相对平衡才能缓解这一矛盾。而当前工业社会正因人工智能等技术的发展逐步向智能社会转型,知识工具理性迅速漫溢,技术工具带来的高效实践成果背后,是对责任与义务、道德与伦理等价值理性关怀问题的忽视。许多人工智能研究者与使用者只以利益为优先选择,对其研发与使用造成的社会矛盾与不公正现象不作思索,甚至在自我思想层面直接出现偏见与歧视。
(三)道德地位的判定障碍
随着人工智能的发展,原有的科技制度规范已失灵,各种价值观与多元思潮并行存在,科技规范漏洞与不足正频频显现。从行为层面上,科技人员的越轨行为存在隐蔽性,其越轨活动的行为目的与心理活动动机的主观故意性也缺乏衡量标准。此外,当前人工智能研究活动仍无法判定是否存在潜在危险,一些人工智能产品出现危害后也无法判定是研究活动造成的还是使用不当造成的,致使对科技道德失范行为难以实施惩戒。不过各个国家也在努力采取措施来解决道德判定障碍问题,如2018年6月,美国医学会针对医学人工智能系统发布了如何开发、使用和调节人工智能的指南,旨在解决人工智能医疗实践问题中所引发的责任判定障碍。该指南强调了人工智能技术只是起到增强作用而非替代医生工作,人工智能系统中的决策失误引发的医疗事故由医生负责。
一直以来,道德地位的唯一作用主体是人,但经研究发现人工智能也具备一定的道德行为和部分道德行为的基本特征,这不免引起人们思考。在技术乐观主义兴盛的启蒙时期,卢梭率先看出科技背后的隐患,指出科技作为工具被应用,会使得人类自身力量受到削弱,其负面效应也会使大自然遭到破坏,科技的存在必然面临着道德伦理问题[6]。人工智能虽不同于人类之间的子代传承,但依然保留着传承者父代的基因特质,虽不具有客观存在的实体,但可以通过产品功能表现来实施自身道德主体表达。2016年,欧盟委员会提议到,鉴于人工智能具有特殊的人格性,其外在表现形式和内在机理构造都拟于人,因此可将其定义为电子人,赋予其著作权、劳动权等相关权利与义务[7]。但同时要了解人工智能目前的意识形态仍不成熟,其意识源自设计者对它的程序输入,自主性与实际互动性不高,更无法具有完整的社会属性。由此可见,人工智能虽具备人本主义、拟人性、人类中心性三种道德主题意识表现形态,但仍缺失自我感知与认知自主性,这使其道德主体地位尚存质疑,但它对人类主体地位却有一定的削弱。
(四)用户数据的透明化、去隐私化
在人工智能化的大数据时代,用户数据处于一种透明化、去隐私化的状态。人工智能设计人员可根据用户搜索整理出用户的喜爱偏好等,再为其推送相关服务,这便导致人们处理私人事情的自由被干预。然而可悲的是,在操作自由的掩盖下,人们个人信息的输出泄露显得无足轻重。在人们未知的领域,人工智能正逐步依靠强大的算力和严谨的逻辑分析能力,通过数据清洗、挖掘等方式对各数据之间的相互关系进行整合、分析,全面掌握公众的身份信息与行为习惯,精准把控用户的动态。虽然物联网与大数据的覆盖范围巨大,信息的保护似乎无从谈起,但智能系统的干预却局限了用户的多样性视角,并直接影响了人类个性的塑造。不过算法运行范围的广泛性其实是用户权益受损的不必然因素,人工智能技术的壁垒与算法逻辑才是用户信息泄露的直接原因。算法运作的优势方利用用户协议条款来增加用户阅读障碍,甚至可以根据用户语义解析算法判断用户行动,让用户的信息几乎透明化[8]。此外,公众视野下人们的行为举止随人工智能的出现加重了被监控的态势,智能系统普及到人类活动范围,让人类的隐私保护变得更加不可控。中国深网视界科技公司就于2019年发生人脸数据库信息大规模泄露事件,超过256万用户的高敏感个人隐私信息被曝光。而《麻省理工技术评论》一则文章也指出人工智能在研发时,需要研发人员从互联网等多种渠道进行大量数据的搜集,用其来填补人工智能的算法系统[9]。这使得许多不法商家利用漏洞攫取用户隐私,并扩散以谋利。这些事件恰恰说明人工智能发展的伦理道德约束力仍有待加强。
二、人工智能发展伦理意向性的时代诉求
(一)社会治理盲区现象的改善
人工智能的推广为许多领域提供了科学决策的空间,尤其是其在社会治理过程中的实践极大提升了决策者的治理工作效率。但是,技术哲学和技术伦理研究中的研究学派“荷兰学派”提出“经验转向”和“伦理转向”两大研究纲领,对当今科技活动本身进行了深刻的伦理反思,认识到科技活动给社会治理带来的重大难题[10]。如在现实中人工智能技术常常因数字化造成技术制约,进而造成数字鸿沟中大规模的边缘人群失语现象的产生;让决策者一再强化资源分配的差序性,倾轧数据化内部盲区的领域,优先导向智能数据中所推测的制高点群体空间,加剧了社会治理结构的不合理性。此外,人工智能算法的应用数据以及处理规则都是经算法设计人员创建的,因此算法设计会带有主体性偏差。当其广泛应用到实践当中,这种偏差性或歧视性将加倍放大,直接侵蚀社会治理系统的公正性。
党的十九届四中全会上提到应改进科技评价体系、健全科技伦理治理体制。我们党关注到科技的发展进步必然会引发体制化的矛盾,先进的科技快速发展也会冲击到原有的社会治理程序,成为影响国家和社会稳定的重要因素。一方面,算法技术与优势国家可能利用人工智能成为新的全球治理体系的主体;另一方面,全球治理格局也可能因人工智能算法暗箱操作面临解构。我们必须认识到现在治理实体不再是传统意义上的主体与客体,而是真正提供公共服务的能力者。在人工智能研究潮流涌动下,我国迫切需要借助科技伦理来予以方向引导,协调统筹好人工智能可持续发展与社会治理效能优势发挥的关系。
(二)伦理责任机制的构建
任何新兴技术的发展应用都势必造成一定的技术风险。技术风险指技术发展应用所带来的不确定性与技术主体不利结果的发生,而人工智能作为时代发展的主要技术方向,其背后蕴藏着巨大的技术风险。在伦理学领域,应用伦理学正逐渐将关注点转移至科技研究者的职业伦理和责任伦理。而传统的技术后果承担责任制根本无法应对人工智能技术发展应用实践中导致的不确定性与负向性结果,这时伦理责任机制化构建为我们提供了新的路径思考。伦理责任机制化,作为事后责任追究制的反向性章程,主要强调进行规划性研究工作来作为事前责任预警,倡导主体对所实施的行为加以责任上的自觉认识。
德国技术伦理学家胡比希曾提到:技术研究者应对技术活动承担一般性责任,责任既有技术层面,也有社会层面。规范伦理学将“道德法则”作为中心,在不同程度上用某种同质化或齐一化的伦理诉求和外在约束诉诸理性原则,来对维护社会公平正义的行动实施制度化安排[11]。在这种理性的制度化原则下,科研者自身对其研究对象与实践过程能以伦理理论的思维逻辑进行反思。人工智能技术算法的使用具有明显的溢出效应,它的公共妨害问题无疑深远,因此,应强调对人工智能运营商与开发商公共伦理责任机制的构建,事前杜绝侵害问题并及时建立防护网。同时,及时研判技术风险、把握方向、紧扣需求,摒除制度建立的理论障碍,以构筑我国伦理责任领域的制度优势,将人工智能技术的利用实现从基础保护导向到预期效果责任化保护导向的跃迁。
(三)公共话语体系的再价值化
逐利性驱动将人工智能算法予以优先级排序与类分,使人工智能这一技术发生异化。在新媒体创建的话语空间下,不同群体的话语权进行博弈互动,让传播信息在混杂的信息洪流冲击中不断价值化。群体价值观与个体价值观相分离,在被同质化的信息语言体系中,个体价值的意义正逐渐被削弱,社会正在大数据引导下趋向于虚拟符号社会化态势,价值观与思维范式逐渐被禁锢。法兰克福学派的创始人霍克海默曾提出双重维度的科技伦理观,提出科技作为社会意识形态部分受制于现有社会模式,在政治集权体制下对公众的生活予以管控[12]。在现今整个公共话语生态智能化演进过程中,用户的偏好及行为皆通过人工智能算法推演转化为数据,个体的行为在算法的活动下成为一种有价值的信息资源,经由信息推荐和筛选的运作逻辑予以量化[13]。在人工智能整理传播用户信息数据后,人们所具备的不可量化的、潜在的价值理性被隐去,对媒体观念形成行为导向,极大违背了信息伦理,降低了认知公信力,造成了信息的泛滥化与信息平台话语权的去价值化。当前,信息的生成与流动速度正逐渐取代人作为衡量事物的价值标准,这便聚焦了人工智能架构成为社会信息交流的底层装置这一问题,信息的运作仅与传播环境形成系统间松散或紧密的结构耦合关系模式,而不具备价值化的导向,让现实世界与虚拟世界形成一种纷繁复杂的多层次关系。在这一关系下,我国应及时加强对人工智能的伦理规范,重新将个体价值观与群体价值观相统一,以实现公共话语体系的再价值化。
三、人工智能发展的科技伦理规范路径
(一)提升公众对科技伦理的认知,深化马克思主义思想指导下的科技伦理观
人工智能作为技术属性与社会属性高度融合的产物,公众的认知是推行人工智能伦理规范的重要因素。当前许多国家都已将伦理教育课程融入学校的课程教育当中,美国哲学界更是突破西方以往以理论为导向的传统哲学研究范式,出现了走向社会与服务社会的研究思潮。这种“刺激—反应”的公众伦理学习模式提高了人工智能产品生产与使用的透明度与可塑性,进一步明确了人工智能的责任制度,极大地助推了人工智能研究伦理环境的塑造[14]。人工智能研究作为一项跨多个领域的技术研究,其影响威力与涉及范围都是大规模的,一旦发生公共妨害,便需要群体共同提起诉讼请求。美国联邦法院在侵权责任法中规定,主体只要在公共妨害中受到损害皆可予以诉讼。随着人工智能的广泛普及,人民在科技活动中参与度的提高以及科研机构对社会开放程度的加大,公众亟须加强对科技伦理的认知。这需要政府部门利用公共媒体为科技伦理的推广营造良好的社会氛围,帮助人们辨别是非与真善美,抵制错误观念与不道德行为,加强全社会对伦理价值的重视。
马克思恩格斯建构了技术思想和思维科学理论,为我国科技伦理奠定了思想基础。马克思恩格斯把其提出的唯物辩证法思想归结为外部世界和人类思维的运动的一般规律的科学,并将这一方法运用到佐证自然和人类社会历史是存在辩证关系的一般科学规律,以此为哲学根据分化出自然科学和社会科学两门学科。马克思科技伦理思想先是高度肯定了科技活动的价值,又从异化观点入手,极具革命民主主义色彩与辩证主义色彩。这对当前人工智能所属学科具有导向性意义,也有助于其学科伦理的构建。马克思的很多思想在当前极具借鉴意义,就如很多人认为利益与伦理相斥,而马克思则指出:“人们奋斗争取的一切都与利益有关。”[15]正当的利益追求与科技伦理行为并不相悖,在伦理规范中,要肯定科研人员自身的合法权益,只否定不当获取利益的行为。马克思的观点基于人类社会发展角度,将科技作为社会的基本要素予以看待,从生产力、社会意识与社会状况三种现实存在的人类社会因素视角探讨科技与社会的关系,蕴含着深厚的历史辩证唯物主义思想,对我国推行人工智能发展的伦理规范具有重要的借鉴意义。我们应在马克思主义思想指导下,深化人工智能发展的科技伦理观。
(二)构建人工智能伦理准则与技术责任制度
伦理作为一种人际关系的行为规范,必须发生于人与人的互动关系中,简言之人与人工智能的关系需追溯到人工智能的设计者与制造者、使用者与支配者之间的关系中,要对伦理行为予以规范应从人工智能的职责制度规划进行构建。社会系统运作和沟通的基本单位是由社会沟通之流通过行动元归因到作用主体,而行动元的节点则主要依托于责任制度与规范构成行为实施演化空间。人工智能的伦理准则便是将系统演化界面创造的冗余空间规范化,让行为主体承担起自己的基础责任。让人工智能算法通过责任分配、监管、实施制度来协助技术人员履行不同程度的公开义务,可以帮助企业平台增强自身的社会责任感[16]。如日本人工智能协会在内部常设“伦理委员会”来保证伦理道德红线的不可逾越,这种设置极大地维护了各项伦理原则的边界线,提升了人工智能研究者的社会责任感,强化了人工智能行业的伦理操守。在当前我国人工智能研发工作中,科学探索的课题必须从产品的设计、研发和创新阶段入手,将人工智能伦理准则与技术责任制度演化为评判人工智能活动的内在维度,尽量放大人工智能技术的正面效应,减少科技异化对人和自然界的负面影响。
(三)将人文主义思想融入人工智能研究过程
科学的价值应建立在“仁”的基础上,科学的精神态度来源于人,人承载了科学意识,科学技术则应为人服务。在当今人工智能技术进程下,社会实践的演变与大数据信息的整合使个体呈现符号化,这代表着科技伦理思想的核心也需从传统的学术道德转换为人本道德。一是人工智能的研究运行的主导,主要依靠科研者自身素质能力与伦理知识素养。这意味着培养科研工作者研究能力,不能只局限于专业教育领域,也应在其课程体系中添加人文教育课程。在历史上,人文精神与科学理性在本质上是一致的,古希腊有关价值问题的道德哲学本质上是对人的道德本性的探讨,从内向角度来帮助人建构道德价值体系。西方近代的科学伦理家在推进科研工作的过程中,直接树立了包括求实、怀疑、创新、献身等一系列科学研究精神,使科研活动的进行都依循一定的道德标准。在我国科研工作中科学工作者认识到将人文精神融入科学理性,可以帮助科研工作者更好地进行思辨与分析。为此,我国人工智能研究工作需进行文化正义下的行为反思,让工作者们能从人文视角出发延伸到哲学、社会等多重视角,恢复对生态与伦理道德的重视,以带有人文美感的设计让人工智能的发展与社会进步形成自在自为关系[17]。二是人工智能作为技术产品,其设计与生产活动需由企业作为主体实施。这一现象下需对企业加以人文要素的引导,让其在生产人工智能设备时更加注重道德物化的实践,生产具备伦理素养的产品去促进企业生产与发展的良性循环。
伴随着现代人工智能的深入发展,科技伦理的建构已成为我们必须关注与审视的对象。人工智能所导致的算法桎梏与偏见、工具理性与价值理性的失衡、道德地位判定障碍以及用户数据透明化与去隐私化等伦理维度偏差问题逐渐显现,这要求我们的伦理思想也必然要不断发展并与之相适应。可以明显看到,人工智能的健康良性发展与科技伦理的指导有着明显正相关关系,由此,我们应充分提升公众对科技伦理的认知,深化马克思主义思想指导下以人为本的科技伦理观,通过切实加强技术责任制度建设来提高科技人员对伦理规范的践行程度,并将人文主义思想融入人工智能研究过程,让人工智能能够在科技伦理的引导下真正应对风险和挑战,把握时代发展机遇。