APP下载

面向智能解析社会的伦理校准

2020-12-10段伟文

关键词:智能

段伟文

(中国社会科学研究院哲学研究所,北京 100732)

随着信息化、数字化和智能化技术的迅猛发展,作为世界的存在、事件的发展和人的行为发生痕迹的各种数据呈指数增长,我们日渐生活在由数字化的数据所构成的信息空间与编码空间之中。而新一轮人工智能热潮,不仅源于计算能力和深度学习等智能算法上的突破性发展,更在于数据驱动。近20年来,网络搜索、电子商务、新媒体的发展,带给数字产业界巨大的启示是反映每个人的特征、行为和偏好的数据均有可能构成世界的镜像。如果能够充分运用这个数据构成的镜像世界,就有可能重构社会生活的各种流程,使之变得更加精准和高效。

基于这一认知,通过各种被称为商业智能、认知计算等基于数据智能的社会计算,人的线上和线下行为数据越来越多地被搜集和分析,在一定意义上使每个人都成为被追踪、观测、分析的对象。借助特定的算法,数据的掌握者可以通过行为评分和内容推荐等数据智能对人的行为进行评判、引导和干预。由此,当前作为人工智能应用热点的数据智能已经揭开了智能社会的一种可能形态——智能解析社会的序幕。这一新愿景是信息网络技术等数字乌托邦的新发展,但由此所带来的人工智能未来是否会成为人人向往的智能乌托邦尚待进一步探讨。其中一个重要的方面是,如何从价值层面反思智能社会构建的认知与行动的实质,对其加以必要的伦理调适。

智能社会的技术实现与世界的数据化

自二十世纪后半叶以来,高科技革命引发了后工业社会、信息社会与知识社会的理论探索与创新实践,智能社会的思想与实践随之开启。在观念层面,20世纪80年代后期,中国社会科学院童天湘曾发表系列文章与相关专著指出,高技术首先是高智力,高科技的发展正在带来智能革命,未来社会应是智能社会。同时期,也有一些国外学者曾提出过“智能社会”的概念。近年来,欧盟和日本等相继提出了智能社会的愿景,其主旨是充分运用数字与智能技术使社会实现智能化,同时更有效地解决健康、医疗、养老、教育等既存的社会问题以及气候变化、可持续发展等全球问题。

从技术前提来看,普适计算和社会感知计算等方面的研究为智能社会的实现奠定了基础。1991年,马克·威赛(Mark Weiser)在《科学美国人》杂志上发表文章《21世纪的计算模式》,提出了“普适计算”(ubiquitous computing或pervasive computing)的概念,指出可以通过无处不在的计算服务人们的生活和工作,使人置身于遍布计算能力的人工环境或智能环境之中。这一概念标明了从信息社会向智能社会前进的大方向。此后的发展表明,通往智能社会的关键路径是数据驱动和智能集成。一方面,人工智能的研究表明,让机器具有所谓的智能需要走一条和人的认知完全不同的道路。这就是发挥计算机在计算和存储方面的特长,利用大数据的完备性,发现人难以发现的规律,得到传统方式无法得到的结果,从而在某些方面超越人的智力。另一方面,普适计算或智能环境的实现必然建立在智能集成之上。这也是钱学森提出基于开放复杂巨系统理论的智能系统的主旨所在,其中不仅包括分布式与现场人工智能、智能体,还包括人工社会研究所关注的社会智能的集成。

近年来成为研究热点的社会计算和社会物理学在一定程度上可视为数据驱动的普适计算。早在大数据兴起前的2005年,MIT科学家彭特兰(Alex Pentland)便提出了社会感知计算的概念,试图通过收集和分析人际交往与社会生活的数据流理解与改进人类行为,在社会管理与治理层面推动数据驱动与智能集成的综合运用;此后,彭特兰进一步倡导,在基于大数据的社会物理学研究的基础上,从思想流(idea flow)和社会学习等出发,构建数据驱动的智能社会。(1)[美]阿莱克斯·彭特兰.智慧社会: 大数据与社会物理学[M].汪小凡,汪蓉,译.杭州: 浙江人民出版社,2015: 7.不论是社会计算还是社会感知计算,都有一个基本的假定: 我们可以将世界的全部转化为数据,从而实现世界的数据化。基于此,我们不仅可以用数据刻画和描述真实世界,还可以运用这些数据影响和干预其所刻画和描述的世界。换言之,数据世界可能成为与真实世界相对应的平行世界。而这一假定背后的预设是,数据即“事实”,世界的数据化意味着我们可以用数据刻画和影响世界所发生的全部事实。

在数据驱动的智能应用中,世界的数据化往往会发展成一种理想化的数据观——数据主义。在数据主义者看来,在数据记录、观测与分析技术得以普遍应用的情况下,关于世界与生活在其中的人的行为的数据等同于世界及生活在世界中的人的行为本身,是可用于计算和干预世界及人的行为的资源。在此,数据主义者显然没有看到数据与世界和资源的等同在技术、价值上的合理性限度。

世界的数据化可视为一种具体类型的技术化科学(technoscience)对世界或对象的行为的有条件、有选择和有目的的表征或干预。其一般过程是: 数据分析者一般会为了某个目的,比方说视频网站要向用户推送视频内容和广告,就会采集用户的相关数据,如观看内容、时长等,还可能包括年龄、性别、所在区域等数据,通过数据分析,就可以对用户的行为特征和偏好等进行数据挖掘和绘制数据画像,并据此向用户推荐他可能喜欢花时间看的内容,同时穿插有针对性的广告。根据这一过程,可展开相应价值合理性分析: 数据分析者对用户数据的采集是否会侵害用户的隐私权,所采集的数据是否得到安全的存储,所绘制的数据画像是否存在偏见和歧视,所推送的内容是否会导致用户的沉迷,所推送的广告是否存在蓄意误导用户不合理消费的情况,等等。毋庸置疑,这些价值合理性分析只有通过对数据驱动的智能社会的可能形态的反思和追问方能具体地展开。

解析社会与作为揣测性认知的智能监测

从社会形态的变迁来看,认知计算和数据智能的广泛应用意味着一种新的社会形态——解析社会或数据解析社会的来临。(2)段伟文.人工智能与解析社会的来临[J].科学与社会,2019,9(1): 115-128.一方面,政府、企业等组织的管理与治理活动越来越多地借助数据分析与洞察;另一方面,个人也开始运用可穿戴设备采集生活和健康数据,对自我实施量化管理。从信息社会向智能社会发展的宏观脉络来看,我们可以认为这种社会形态是智能社会的一种可能方案,故又可称之为智能解析社会。这种新的社会形态是颠覆性的。一方面,数据所扮演的角色如同13世纪时出现的透镜。透镜所制造的望远镜和显微镜让宇宙和微观世界得以清晰地观测与呈现。如今,“数据透镜”则使人的行为得到量化地记录与透视。另一方面,就像17世纪笛卡尔发明解析几何使得自然界的结构与规律得以探究一样,数据分析与智能算法的应用正在使人的行为规律得到洞察和解析。

用数据和智能算法来分析人的行为,意味着对人的智能监测。所谓智能监测,大多是在被分析对象不知情的情况下展开的,但也有一些是自我监测,如智能手环等智能化可穿戴设备的应用。即便是后者,设备使用者的个人数据也会被产品及软件厂家或第三方采集和分析。这种智能监测并不是什么新鲜事,在一定程度上是传统情报监测的延伸。根据斯诺登披露,在大数据出现之前,美国国家安全局早就通过元数据分析对公众的电话进行监测。这种监测一般不涉及通话内容,因为仅依据通话的号码、时间、长度、频率、位置这些元数据,就可以了解很多情况。比如,A接通一家大型医学中心的心脏病专家的热线并进行了长时间交谈,又致电医学实验室进行了简短交谈,然后接到了药房的电话,并给家里打了一个简短的电话;B向专门销售某种枪支商店打了许多电话,并且还与生产这种枪支的制造商进行了长时间沟通。这种监测只是提供了一些可能的线索,如A可能有心脏病,B准备购买枪支,但这只是把一些事件串联起来之后所产生的猜想,只要大家略微发挥想象力,剧情还可以千变万化。

毋庸置疑,智能监测这种认知方式带有很大的揣测成分。早在电报技术时代,亨利·詹姆斯(Henry James)于1898年发表的短篇小说《笼中》(IntheCage)的年轻女报务员似乎已深谙此道。凭着一双明眸和了无束缚的想象力,透过从她指间匆匆流过的只言片语,她瞥见了主顾们各式各样的风流韵事、约会安排、小把戏和小秘密,加之众人在态度、礼节、言辞、阶层、金钱、性别上的分别,经过几番琢磨、编织和脑补,硬是把吞吐摩尔斯电码的电报机变造成了绘制众生身份的世界机器(world machine),数据流在其中被复原为生命流。那些由此酝酿出的故事随风弥散,其剧情看起来有多么真实,就有几多虚拟。(3)[英]马修·福勒.媒介生态学: 艺术与技术文化中的物质能量[M].上海: 上海社会科学院出版社,2019: 312.通过这一早期媒介信息监测场景,不难管窥数据解析的奥秘在于监测者对事件的虚构与想象。当代监测理论的研究者将这种通过监测捕捉“事实”的过程称为“作为生产的监测”或“生产性监测”。而在移动互联网和即将到来的万物互联甚至想法互联时代,每个人的生活将变得更加透明。你的手机提供商会跟踪你的位置,并知道与你在一起的人;各种网络应用会记录你的在线购买模式,知道你是否失业、生病或怀孕。

耐人寻味的是,尽管并未诉诸可检验的理论或假说,谷歌、脸书等掌握了海量个人数据的科技巨头却往往将数据混同于事实,把从数据中发现的模式看作绝对真实存在的东西。谷歌因为记录了你的搜索数据,就认为可以知道你的想法。当你在搜索引擎上输入“should I tell my w”时,就会建议你输入“should I tell my wife I had an affair”(我应该告诉妻子我有外遇)或“should I tell my work about dui”(我是否应该告诉单位我酒后驾驶)。曾任谷歌CEO的埃里克·施密特(Eric Schmidt)坦言:“我们知道您在哪里,我们知道您去过哪里,我们或多或少可以了解您的想法。”(4)Bruce Schneier. Data and Goliath: The Hidden Battles to Collect Your Data and Control Your World [M]. New York and London: W.W. Norton & Company, 2015: 16.对于那些具有垄断地位的巨量数据追踪者而言,他们会越来越多地拥有有效的机器学习所需要的数据,从而可以更好地构建算法、更迅速地预测趋势、更多地了解用户,当然也要通过外包业务让更多的人为这些数据打标签。尽管大多数企业相信数据的充分运用对于整个社会而言最终利大于弊,而且可以通过企业的合规与自律行为不断调整和改进;但从产业规则与社会治理的角度来看,至关重要的是如何为可能出现的数据垄断与滥用设定边界。

数据智能与社会计算的价值追问

在这种抑制不住的自信背后,充斥着近年最常听到的陈词滥调——“数据就是石油”。这个论调似乎表明,培根提出的“知识就是力量”的口号,如今要改为“数据就是力量”。就像培根当年主张拷问自然一样,或者说更像新行为主义者斯金纳摆布迷宫里的小白鼠那样,面对互联网这个巨型的迷宫,掌握着巨量数据资源的企业研究者在拷问着数据,让数据交代出人的秘密:

计算机科学家有句行话,说的是算法如何不停地寻找模式: 它们折磨数据,直到数据招供为止。不过这个比喻也有未加审视的隐含意义。数据就像酷刑的受害者一样,审讯的人想听什么,数据就说什么。(5)[美]富兰克林·福尔.没有思想的世界: 科技巨头对独立思考的威胁[M].舍其,译.北京: 中信出版社,2019: 58.

但实际上,这种拷问并非对客观知识的探究,而是将人的行为本身视为一种需要解决的问题,其目的是通过对人的行为数据的计算影响人的行为。正如前文所言,所谓让数据说话,不是无目的地对人的行为的客观刻画,而是数据分析者或算法设计者从特定目的出发,对计算对象作出的具有定向性、引导性和干预性的社会计算与调控。

典型的社会计算有三类。一是结果预测。比如,有人用已有的各种审判数据和人工智能算法预测某个法官对某个案件可能的判决结果。由于人总有其自由意志,人们所作出的决策是多方面综合考虑的结果。不管法官的行为是否有规律可循,这种预测本质上与占卜并没有什么不同。之所以这么说,一个重要的原因是一旦脱离了原来的语境,各种计算和预测所依据的原始数据的意义已经不完整,而将大量意义不完整的数据拼接起来,得到的可能性拼图只能说是一种大致的猜测,而且每个猜测只能接受一次检验。

二是偏好预测。这与其说是机器智能对人的行为可能性的认知,不如说是对人的行为引导,其所体现的并不是人的意愿,而是设计算法的人希望被预测者具有的意愿。比方说,亚马逊和奈飞都推荐图书和电影,美其名曰理解或帮读者发现自己的品位。但前者会给你推荐浏览过的书,因为那样你购买的概率更大;后者则推荐你看一些鲜为人知的内容,因为那样可能会给一些不太热门的产品带来更多流量,从而获取更大的利润。

三是先发制人。先发制人原本是一种军事策略,在“9·11”之后,因为反恐或应对所谓“未知的未知”的风险的需要,而成为一种国家安全策略。这一策略建立在一种基于预见的可能性而采取控制行动的政治逻辑之上,可称之为可能性的政治,而使其得以落地的就是数据的采集挖掘和分析预测。就像斯皮尔格导演的电影《少数派报告》中抢先阻止未实施的犯罪一样,人工智能已用于打击潜在的坏人,对某些特定人群或特定行为进行可能性预测,在有些场景中可以实施强制性阻止,甚至予以惩戒。近年来,随着数据采集和处理的便捷化和计算能力的提升,很多国家和地区都建立起了各种区域犯罪预测系统,如美国PredPol公司开发的犯罪预测软件和日本东京警察局(Tokyo’s Metropolitan Police Department, MPD)的犯罪监测与画像系统等,其基础就是对个人行为数据的采集、分析、预见和预警。但先发制人与可能性的政治无疑是自相矛盾的,既然罪行没有实施,为何要受到强行处置和打击。从法理上讲,这显然不符合无罪推定的基本假设。

从这三种典型的社会计算可以看到,它们在本质上是技术和工程层面有效解决具体问题的方案。脸书等社交媒体和网络平台之所以不遗余力地倡导人们共享数据,首先是为了增加流量,更精准地行销产品,而不是考虑如何让这些产品和服务给每个人带来美好生活,让全社会更加和谐幸福。更进一步而言,数据驱动的认知计算或智能在认识论和方法论上的基本策略,是通过思维自动化解决其关切的问题。思维自动化是一种工程思维模式,这种模式在认识论上的目标不是发现客观真理或所谓先验真理,而是通过技术和工程操作造成其希望达到的既成事实或后验真理。例如,智能推荐系统给用户推荐图书时,仅仅根据其推荐后用户接受的比例来决定其认知计算的准确度,其真理性并不是事先存在的,而是完全以设计者的满意程度为评价标准。在工程思维模式下,人被当成数据,当成企业和机构的编码系统和运营系统的构成部分。

实际上,无论这些社会计算及其生产性的监测有多么精致,其悖谬在于既颇具创造性,又每每挖坑、误导乃至构陷。从人脸识别到智能手环,从行车记录仪到布满天际的电子眼,人们对世界的认识终于结出了世界时刻不知疲惫地关注我们的奇异果。各种机器所捕获的数据看似对人的行为进行定格,但这些被剥离场景和意义的原始数据的意涵有时候完全仰赖数据使用者的解释,难免出现根据特定的视角加以编排的情况。由于数据的意义依赖解读,对各种数据碎片的整合也时常会导致误解的叠加,这就使得一些基于数据智能的监测结果可能产生类似自我兑现诺言的假象。

假使有个司机小Q轻微违章不幸偶遇希望打捞“危险分子”的警察,其所有数据记录被调出来交叉比对。小Q之前在购买行车记录仪、电视等设备时因为接受折扣的诱惑而应允将数据与厂家共享。警察在厂家的服务器中调出了各种数据,以收集与其人格相关的信息。结果发现他喜欢看一级方程式赛车和汽车拉力赛,还喜欢看警方公布的包括汽车追逐的监控录像,最近还浏览过捷豹和保时捷网站。据此,检控律师将小Q认定为沉溺于极速驾驶强迫症的危险分子。但辩护律师指出,小Q之所以关注高品质的跑车,是因为他是个负责任的公民,希望座驾更安全可靠,而关注警方监控录像则表明他高度关注道路交通安全。多少有点莫名滑稽的是,在这种生产性的监控生态中,基于数据拼图游戏的各种解释都在披露“真相”,似乎都比作为“数据—身体”主人的小Q的供述或辩解更加可信。(6)[英]马修·福勒.媒介生态学: 艺术与技术文化中的物质能量[M].上海: 上海社会科学院出版社,2019: 319.

由此可见,在社会计算中运行的算法正在体现出巨大的力量,其引导性和强制性作用很容易遭到滥用,甚至会发展为“算法霸权”。不论其方式是柔性的计算机说服技术或智能化助推,还是刚性的简历筛选和对行动自由的限制,都体现了某种宰制性的权力或霸权。以前文论及的数据画像为例,很多拥有数据的社交媒体或网络平台会根据所掌握的数据绘制用户的数据画像,虽然每个人的数据画像如同其数据双胞胎,但却既不为用户本人所掌握也不为其所知,拥有它们的企业或机构可完全根据自身目的加以运用。虽然这种行为可以视为企业的商业秘密,但如果出现对用户的偏见、歧视和伤害等情况,用户无法对其提出质疑和参与改进,数据分析和算法设计者也很难主动发现问题并加以修正。

构建超越工程思维的伦理反射弧

面对冷酷无情的思维自动化和工程思维对人性的挑战,必须构建一种可以制衡其滥用的伦理反射弧。在此,本文无意赘述关于透明、负责任、可解释、可信任的数据和人工智能之类的各种科技向善的口号,只提几点相对可落实的举措。首先,要认识到人与技术在本质上相伴而生的关系,在人与技术构成的行动者网络中反思和校正新技术带来的价值伦理问题。当我们思考人机关系时,不应陷入抽象的人机关系反思,也要避免将机器视为独立于人的存在,而要认识到人机关系的本质是人与人之间以机器为中介的关系。以人脸识别技术应用所引发的争议为例,如果能以所涉及技术产品(服务)及其相关的群体所共同构成的行动者网络为研究对象,剖析该技术的应用对人脸识别技术的开发者、使用人脸识别技术的机构、被人脸识别的对象以及原有工作可能被人脸识别技术所取代的群体的影响,无疑有助于深化对相关问题的认知。

其次,通过有针对性的“技术-伦理”设计对数据智能应用施以适度的伦理治理,在此过程中无疑需要通过人文学者与科技专家的对话,以实现价值诉求与技术需求之间的“转译”。例如,针对短视频应用中反复出现推荐低俗内容的现象,批评者应该看到,这是由数据聚类等推荐算法放大了人性的弱点造成的,但机器所抓取的是数据的抽象特征,具体推荐内容并非算法设计者有意为之;而设计者应该看到这些现象虽非其故意所为,但必须对这种技术在功能上的盲目性进行有意识的价值引导。由此,一种可操作的解决方案是先对某些类型的低俗内容建模,然后对其加以必要的过滤。

最后,不论是企业、机构、政府还是个人,都应该看到人的独特性和无限可能性才是人类文明和一切创新的根源。数据的无度采集和滥用不仅会导致对人的尊严和隐私等基本权利的侵害,更重要的是会让人丧失自我的独立性、能动性和创造性。客观而言,数据对人的行为的绝对理解是一种不可能实现的幻术,因为巨量的数据实验所捕捉到的往往不是鲜活的人类生活,而只是由作为人的行为痕迹的数据所构造的刻板化世界版本。在走向智能社会的开始,人们应该运用人类最古老的智慧——承认自己的无知,认识到不可能全盘揭示世界“真相”的现实,从而给人们反思自我和前瞻未来留下微妙而必要的缝隙。

猜你喜欢

智能
智能与自主
让纸变得智能
一种智能微耕机的研发
智能制造 反思与期望
智能前沿
智能前沿
智能前沿
智能前沿
智能制造·AI未来
争渡智能石化