APP下载

人工智能:理论阐释与实践观照(笔谈)

2021-08-24段伟文,吴冠军,张爱军

阅江学刊 2021年4期
关键词:伦理人工智能机器人

人机伴生:从机器人伦理到道德机器(1) 本文系国家社会科学基金重大项目“智能革命与人类深度科技化前景的哲学研究”(17ZDA028)的阶段性成果。

段伟文

所谓人机伴生,要强调的是在人工智能和机器人的发展进程中,一直通过人与机器的协同而演化。如果认识不到这一点,就很容易忽视人类智能与机器智能的现实关系,脱离由两者构成的智能生态谈论奇点和强人工智能。这就涉及哲学研究,不仅仅是提供答案或者解决方案,还要对问题本身进行分析和重构,让人们能够从更好地体现实际的视角看到问题的本质。每个人都想成为解决问题的高手,各个学科提供了各自的视角,而哲学总在试图告诉人们,还可以用另外一种方式来面对问题。这就是哲学的思考,不断地变换角度,使从其他角度不显见的现实得以呈现。

一、作为文化创新的机器人文化

从某种程度上讲,这种惧怕技术和机器人的技术文化与机器人文化决定了西方机器人文化的基调,也成为机器人文化反思与创新的出发点。此后,比较有代表性的文化创新者有阿西莫夫的机器人定律和日本的机器人文化。20世纪30-40年代,阿西莫夫着手创作科幻小说时,面对各种机器人故事中过于人性化的“威胁人类的机器人”和“引人同情的机器人”,他看到了另一种可能——由工程师制造的内设安全机制并用于执行特定工作的机器人产品,它们既不会威胁人类,亦无从引人同情。为此,他在《环舞》等小说中提出了机器人三定律,为理想的机器人设定了一套假想的可通过机器执行的道德体系,让人们看到机器人是可控的。这就从文化层面大大消除了对机器人的恐惧,大大鼓舞了早期机器人的发展。正是通过阿西莫夫的康德式的机器人伦理创构,形成了一种可以平衡“机器人畏惧”的正面的机器人文化。

再看对机器人充满信任和好感的日本机器人文化,既沿袭了其神道教与喜爱“机关人偶”的传统,也体现了日本发展有别于西方的机器人文化的意图。众所周知,20世纪70年代以来,日本的机器人文化可谓独树一帜。而早在20世纪20年代,《罗素姆万能机器人》日文版问世后,旋即在日本引起广泛关注。当时有一位名叫西村真琴(1883—1956)的生物学家和哲学家不满西方作品中作为劳动者的实用机器人形象,认为人不应与人造人对立,主张作为自然之子的人类应该将机器人视如己出,与其携手共进以实现万物平等、和谐共生。基于这一理念,他于1928年制造了一种他认为理想的机器人“学天则”(学习自然法则之意),后在京都、广岛、东京等地巡回展出。“学天则”是一个高、宽均3米多的机器人,它超越了西洋机器人的强迫劳动的状态,而被设定为与人类平等的“类人”。当然,西村倡导这一东洋机器人文化的初衷,与当时日本想在文化上与西方对立不无关联,其中夹杂着军国主义和民族主义。

由机器人文化及其创新可见,科技和人文之间存在着一种内生关系:科学追求的是有意义的真理,技术旨在解决有价值的问题,知识的生产和机器的部署,都是由人的信念、欲望和意图驱动的,是为人服务的。而科技时代的人文问题的关键恰在于其中呈现出的能动性:科技追寻的是谁的意义和价值,又受谁的信念、欲望和意图驱使,具体为谁服务?比方说,平台根据消费者的数据画像进行各种推送,但这符合消费者的意愿吗?如果这会引导消费者的行为,其边界何在?

二、人类智能与机器智能的协同

谈到人工智能或机器人,往往会将其作为一种独立存在的主体来看待,但实际上它们目前还只是数据驱动的智能体(Agents,又称智能代理等)。它自身有一套规则,然后通过环境数据或其他输入数据的获取和处理进行计算和学习,获得认知结果并做出反应。我们跟智能机器交互的时候,要认识到它们是按照机器的方式来思考的,只能够读懂数据。如在进行人脸识别时,机器识别的是视频像素之类的数据。而人自身在此过程中也成为赛博物理空间(CPS)中和网络数字平台上的可识别和交互的智能体。

目前,这些数据驱动的智能体并不具有意识、自我意识和自由意志,更谈不上情感、情绪和同理心,它们在道德行为中远不像人那样是完全的道德主体,不可能单独为其行为后果承担责任。因此,针对自动驾驶、智能音箱和各种机器人应用中的伦理问题,不能简单地说这是程序、算法或自动机器的错,应由它们负责,而只能在人和智能机器构成的行动者网络中找到背后的设计者、制造者、部署者和操作者,向相关人类主体和机构追责。更进一步来讲,固然可以从拉图尔的行动者网络理论出发,探讨人类行动者与作为非人类行动者的智能机器的建构与形塑,但必须看到,在智能机器的使用中人类智能与机器智能的协同。后者恰恰是容易被忽视的智能机器的具体性——这种忽视使得智能机器与人的关系被简化为抽象的人工物与人的关系,而人工智能与机器人伦理的探讨不能脱离人与智能机器在具体场景中的关联。

一方面,要对人类与智能机器的交互环境即网络数字平台的运行模式有所认识。在现实世界中有大量的机器人,包括陪伴机器人、聊天机器人、战争机器人、赛博格(如外骨骼装置)等,人和这些数据驱动的智能体越来越多地被聚合在网络数字平台上。因此,谈到数字技术和人工智能带来的隐私泄露,或Face book会不会操纵选举,不应该只是假想个人通信内容会不会被偷看,平台如何有选择地发布信息,而应关注元数据如何被分析、社交媒体会如何短时间和大面积地影响人的情绪等具体问题。例如,在平台导流的情况下,一两分钟的视频评论,会产生几百万的流量,这种影响力及其反噬的力量无疑不容小觑。

另一方面,应看到当前很多机器智能的应用是通过人类智能的众包与之协同才得以实现的,这就是人们常说的“有多少人工,就有多少智能”。在各种人工智能的应用场景中,包括网约车、外卖平台、智能音箱、古文字识别、机器翻译等,都伴随着不断学习人类的群体智能而提升机器智能的过程,这实质上是人机伴生的社会系统在调试中运行的过程。比方说,上下班高峰时候,为何滴滴司机要接市中心拥堵路段的订单?因为那样他就能够得到更多的奖励分数。现在的导航软件为什么越来越好用?因为大家都在用。但同时不难看到,导航的使用改变了人们出行认路的方式,即从以往的人类经验学习模式转向对导航指令的接受与纠错模式,从而通过反馈和递归实现了驾驶等行进活动的人机协同。如果不加反省地依赖导航,人实际上会削弱和丧失通过直接经验学习的能力,这是不是科技时代人们必须付出的代价?这个问题涉及每个人,要从科技与人类未来的角度加以审视,从而促进广泛深入的社会讨论。

当前,认识到人工智能通过人机协同而进化具有重要的现实意义:不能只看到机器智能如何先进和加速迭代,而应该看到人类智能在整体上依然高于机器智能,看到人类智能在此过程中一直发挥着不可替代的隐形作用。

三、面向泛智能体社会的伦理考量

近年来,学界对人工智能伦理展开了广泛的讨论,从算法歧视、自动驾驶到负责任的人工智能、可解释的人工智能和可信的人工智能,等等。其中,哲学界讨论得最热的问题包括:人工智能和机器人能不能成为道德主体?能否通过伦理设计使人工智能和机器人具有某种机器道德或算法伦理,甚至成为某种道德机器?但对于这些哲学与伦理学讨论的价值,我保持一定的怀疑态度。比方说,所谓“电车难题”及其自动驾驶版,会不会始终只是一种哲学游戏,除了发表论文,对具体的自动驾驶到底有多大的实际意义?

机器人能不能成为道德主体,这涉及机器人的权利、责任等道德地位。对这一问题,哲学与伦理学一般会诉诸本质论的讨论,即机器人所具备的本质是否使其应该拥有道德地位。有人认为,机器人只是工具,就像汽车和电视机一样,谈不上什么本质,也不具备道德地位。但也有人指出,它不仅仅是工具,还可能具有与人类类似的主体性乃至道德地位。但要在哲学和伦理学上对本质或实质进行辨析和论述存在诸多困难。一方面,相关论述会运用谱系学的方法展开探讨。如谈到权利,就会追溯人的权利的发展过程。比方说,奥德修斯从特洛伊战争中归来后处死了十几个女奴,那是因为奴隶在那个时候不是具备道德和法律权利的主体。接着,会运用与论证动物权利、大自然权利类似的思路,类推出当人工智能与机器人的智能感知达到某种程度时,也将被赋予权利、成为道德主体,云云。显然,这种类推的论证模式的说服力非常有限。另一方面,相关论述会直接从机器智能的本质探讨赋予其道德地位的可能。比方说,若能制造出某种能够感受到痛苦的“最大似人自动机”(MHA),就应该视其为道德主体。但这种讨论往往会陷入尴尬境地:如果能够做出这种机器人,这种建造本身是不是就违背了被造机器人的知情同意权。概言之,哲学和伦理学层面的这些本质论的探讨,应该防止陷入自说自话与自我诘难的话语游戏循环。

为了克服工具论、本质论等实体论论述的局限,应该面向泛智能体社会的现实,从实际的关系论角度思考人与机器的道德关系。以中国科技大学机器人专家陈小平带领的团队制作的佳佳机器人为例,尽管很多人认为目前做不出具有内在情感认知和真实情感交互能力的机器人,但在陈小平看来,这项工作是有价值的。从人机情感关系的角度出发,人们会把情感投射到机器人上。在与机器人聊天和互动的过程中,不论是长时间的互动,还是聊着聊着“把天聊死”,都会形成某种情感关系。例如,现在有一种圆形的扫地机器人,送去维修的时候,有的主妇会跟工程师说,你不要随便给我换一个新的,你要把我们家的“保罗”给我带回来。其中就有一种泛主体关系,有着道德关系和情感的投射。

实际上,在阿西莫夫的机器人小说中,并没有抽象地谈论机器人定律,而是通过各种故事,构想其应用于人机关系遇到的冲突与可能的出路。例如,在《镜像》中,一位年长的科学家和一位年轻的科学家同坐一条船,他们各自有一个陪伴机器人,其中一人谈到一个数学定理的证明,最后两人就此内容发表了同样的论文。在对这一公案进行问询时,两个机器人的证词也是一致的:我的主人没有问题,是对方主人抄袭。小说的名字所反映的就是这种人机关系的对称性,而打破这种对称性就需要道德律之外解决冲突的实践智慧。

面对正在来临的泛智能体社会,需要更进一步的伦理设计与哲学考量。在此主要谈三个方面。其一,如何设计和构建一种分布式的道德机制。在自动智能武器的讨论中,最常见的观点是要让人处在自动决策的闭环之中。但问题是,在战斗状况下,一个人监控几十架无人机实际上是不现实的,如何设计一种对人和机器进行全局监控和决策的超级监控者?还有在自动驾驶与人类驾驶并行的情况下,如何分配责任?对此,荷兰的两个法庭判例具有一定的启发性。一个判例是,法律规定只能有两辆自行车同行,第三辆车加入而造成事故时负主责,但前面两辆车也要承担一定责任。类似地,法律规定港口航道只能两艘船并行,第三艘船闯入并发生事故时则需要负全责。对比两个判例可见,在泛智能体社会中的分布式道德机制会同时考虑造成后果的原因以及相关智能体的能力。因此,不论机器伦理还是机器道德,不应停留在自上而下或自下而上的实体论视角,还需从泛智能体社会的智能体之间的关系展开考察。

其二,要从智能体的角度反思人类主体性所遇到的挑战。如今,我们日益置身人类智能与机器智能所构成的智能生态系统之中,人类主体正在转变为可以被机器所认知的智能体。面对各种智能监测,从AI教室到通过人脸识别才能进高铁站,“我”已经不再是内在的第一人称的我,而更多的是机器能够理解与接纳的第三人称的“它”,必须在头脑里有这种意识才能实现人机协同。比方说,进高铁站的时候,我一定要把口罩拉下来,机器才能够识别出来是不是“我”,而且我还不能特别着急地冲过去,要等机器反应过来,才不会撞到闸机。在这个看似自然的过程中,人类主体不能不做一个外在的行动者。什么叫外在的行动者?就是说在泛智能体时代,人与机器的协同建立在对智能体的数据刻画之上,作为智能体的人只有成为一个可观察的数据才能纳入智能系统。换言之,如果人类不加反思地适应这种主体性的外在化,是否意味着这将是一个人变得越来越像机器的过程?假设对导航能力进行图灵测试,认路是人的一种基本智能,50年前,我们要检测机器能否像人一样会认路。而现在随着很多人依赖智能导航而丧失认路能力,是不是意味着机器的认路能力较差才更接近人类智能?如果把人类智能和机器智能孤立起来进行对比,就会看到所谓图灵边界实际上是在变动的。但从人机协同的角度看,这种变动是可以解释和加以调节的。总之,对于由此带来的主体性挑战的哲学追问,无疑是泛智能体社会伦理设计的基础。

其三,谈谈道德机器,即用智能机器来提升我们的道德水准。比方说,在上海外滩过马路时,已经有机器提醒你现在是红灯,甚至有的地方会在大屏幕上显示违章者的姓名和身份证号,这就是道德机器的雏形。如果要将机器人设计成道德机器,不仅需要道德语言交互能力,或场景与事件触发的对应提示机制,还要具有实际环境中的道德判断力和预见力。当然,这种道德机器不仅仅是强制性或命令式的,而更多的是行为心理层面的助推或说服。对此可以提出设计标准,如能减缓人的破坏倾向,并且给人以安慰;为人提供必要的心理服务,为人所接受,令人满意,使人的行为得当等。甚至将来,小孩可以在各种道德机器人或教育机器人的陪伴下成长。但问题是,道德机器究竟根据什么标准塑造我们?其实,人类本身对于什么是善的,什么是好的,什么是好的教育方式,什么是好的品行等,都缺乏一个固定的衡量标准。

我们的将来会是什么样的未来?答案应该是实现人和机器的相互协同与兼容。从机器的角度讲,将来的机器会是利他的机器吗?它会是一种慈悲的机器吗?会与人类之间产生一种情感依赖吗?阿西莫夫《机器人短篇小说集》的最后一篇叫《双百人》,据此改编的电影名叫《机器人管家》,其中的机器人主人公因为活得太久,目睹过他经历的人纷纷故去,最后宁愿不做机器人而变成了终会逝去的人。所以,面对智能化的未来,最重要的问题是必须重新思考和构建人性。最近,人工智能学家斯图尔特·罗素(Stuart Russell)写了本新书《AI新生》,其中谈到未来的人工智能应该纯粹利他、更加谦卑、学会学习和预测人类的偏好,等等。在我看来,最终还是要立足于人机关系的维度,构建我们想要的合乎伦理的未来——人类而不是机器人拥有未来的未来。

(作者为中国社会科学院哲学所研究员)

人工智能、智人与神圣人

吴冠军

我们都知道:电的发明,是人类社会的一个巨大变化——之前城市是一片黑暗。有了电以后,我们整个城市都不一样。然而技术一旦成熟,立即退隐到社会背景中,不再被看到,除非它出问题了,譬如停电,大家突然意识到技术是那么重要。

当代人工智能技术有点反常,因为它很容易就被看到、很受关注——尽管我们都知道人工智能在很长一段时间里,即从20世纪50年代到今天,它都一直处于边缘状态。除了从业者之外,没有多少人关注。那么,为什么最近人工智能突然就被看到了呢?人工智能技术越来越成熟,为什么没有退隐、消失在背景中呢?这个问题和标题里第二个词语“智人”相关。

人类给自己起了一个独特的名字:“Homo sapien”,即我们是拥有智慧的。这构成了人类的自我理解:人类不只是众多动物之一,并且是具有独特性的动物,故而创建出了文明。但是,人工智能技术,尤其是在媒体的放大效应下,直接对人类的自我理解构成了挑战——人工智能打败世界顶级围棋选手。这就是为什么人工智能技术是当代各种技术中恰恰最易被看到的一种技术。

其实,只要我们知道当代人工智能的技术底层,就会知道其实它完全是另外一个“智”,和人类的“智”差别很大。然而,它已然进入人类的共同体,改变了它的构造(Configuration)。本世纪中我们可能会面对文明意义上的“奇点”:奇点之后,文明——如果还有的话——会完全不一样。而当下变化已经发生,只是我们都在关注人工智能与人类智能的对决,而没有关注它们在共同体层面上对文明内核构造的影响。故此,今天有一个专门的研究方向叫技术政治学,就是去认真探讨当代技术在政治生活中所发挥的根本性作用。

今天,如果你对人工神经网络、机器学习有所了解的话,就会看到,重复性工作会被逐渐淘汰,这已是一件板上钉钉的事情。使用人力劳动的重复性工作的价值将无限趋近于零,甚至变成负数。因为人工智能需要电,电是可以用相当绿色的方式获得的,而人每天需要消耗很多能量。

所以,在21世纪,人类共同体的建构方式会发生根本性的变化。我们知道,现代社会所谓现代性的构建就建立在一个基础上,即人具有价值。自然权利的概念(霍布斯、洛克、卢梭),人是目的的理念(康德),构成了现代性构造的核心。然而,一直到20世纪初,“权利”才变成人们生活中一个越来越关键的概念。理念与现实之间,至少隔了两百多年。

换句话说,并不是康德说了“人是目的”,人就是目的了。而是当每个人都具有高度价值后,作为个体的人才在共同体层面上被确认为“目的”,被确认为拥有“权利”。为什么每个人都会具有价值呢?在古典时代,要做好事情是需要技艺的:木匠需要手艺,当兵要身强体壮,最好有功夫。然而到了20世纪初,一个人成为流水线上的工人,只要有一双手,你就可以发挥很大的用。在战场上,士兵只要有扣动扳机的手,就很有用,不需要功夫。故此,自20世纪开始,人的权利不断增加,不断扩容。

然而,我们现在面临一个人工智能的时代:重复性的工作,可能在短短的十年、二十年内变成和人彻底无关的事。按照赫拉利的术语,绝大多数人就会成为“无用阶级”。那么,问题出现了:这些人还会被赋予普遍的“权利”吗?

曾经,我们把机器人视作为“非人”(Inhuman),最多是“亚人”(Subhuman)——不行就报废掉。它们只是别的实现目的的工具,自身成不了目的。古代的奴隶就是这样的工具,因此那个时候不会出现“人是目的”这种话语。祭品(包括活人祭品),就是一种服务于特殊目的的工具:人们杀死活人祭品也不犯杀人罪。意大利政治哲学家阿甘本用“神圣人”(Homo sacer)这个古罗马术语来指称这样的工具性生命。换言之,“神圣人”的用处就是被杀死(被祭祀)。

今天,人工智能使得人的价值急剧下降,至少,绝大多数人会面临这个状况。当机器人没有价值时,就是废铜烂铁,那么人呢?当绝大多数“智人”(Homo sapien)逐渐成为多余的人,那么,他们在共同体中将处于怎样的位置?这是我们需要从技术政治学层面加以认真思考的问题。

(作者为华东师范大学政治学系教授、教育部特聘教授)

社交机器人与美国伪选举

张爱军

2020年我主要关注美国大选,写文章讨论美国大选时本身就带着这个问题,但是后来发现美国大选从来没有出现这么多的乱局,也因为我当时观察了好几个大选,一个是奥巴马大选,然后是特朗普大选,好不容易把大选的机制搞清楚了,结果又出现了一个社交机器人。我们讲美国和西方的民主都是一套一套的,现在终于有了转折,即不再只讲美国和西方,讲中国的历史政治学、长周期政治、祖赋人权、田野调查等,对这个我也不太清楚,我也在学习中。但在学习过程中,我产生了一个问题:就是在没有社交机器人之前,我们讲民主相对都比较清楚,比如讲中国特色社会主义民主政治、民主决策、民主选举、政党政治、三权分立,议行合一等都有一套内容体系,专家学者至少在理论层面都讲得相对比较清楚。但有了社交机器人之后,有些地方就讲不清楚了。讲不清楚最大的问题就是民主的灵魂究竟在哪里?有了社交机器人就没有民主的灵魂。没有社交机器人,民主灵魂可以体现在这一系列制度、过程和政策当中,也可以体现在人们的信仰当中。有魂就是有根的地方,就像马克思所说的共产主义的幽灵在游荡,首先得有地方游荡。社交机器人参与民主,那这个魂到底在什么地方游荡?现在有社交机器人,我们是不是要把民主的价值、民主的信仰放在社交机器人里面?但是下面的问题就来了:要是放在社交机器人里边,把民主信仰或者把民主的魂放在里面,那民主的制度、过程、体系怎么办?民主的公平价值怎么办?民主的魂就一个,安放在社交机器人里面合适吗?我讲社交机器人和西方伪民主,主要是基于美国拜登大选。美国这次大选伪民主就伪在社交机器人的参与,尤其是误导了大选舆论,既得利益集团利用社交机器人操控和干预了美国大选的民主。

社交机器人干扰、影响、破坏、颠覆美国选举的基本行为,颠覆了选举的基本观念,颠覆了选举的基本价值,而且也给我们带来一系列新的困惑。这些困惑主要是围绕人和机器如何共处的问题。社交机器人究竟是什么东西?社交机器人在转化为政治社交机器人之后,政治社交机器人是人还是工具?说机器是机器人,无论弱人工智能,还是强人工智能,首先机器得是个人,最后落脚点还是人,社交机器人也是个人,那么这样一个人能不能成为民主的一个主体?如果说真的把他变成一个民主工具,究竟是人统治民主还是民主统治人的问题就出现了。清华大学制造了一个机器人,又能画画,又能听音乐,又能作为清华大学的一个学生,在此之前还有其他国家有一个类似社交机器人“公民”,它一出现,普通人都辨不清它的身份,也就是说将来它要成为人,如果作为美国和西方民主制度的一部分,如何共处?现在有人要把社交机器人当“老婆”,那这“老婆”如果输入了政治程序,就有可能进入政治领域,“夫妻”关系变成了“政治夫妻”关系。人是具有主体性的,那么社交机器人的主体性在哪里呢?再者,“夫妻”关系变成了“政治夫妻”关系之后,政治机制也会相应发生变化,甚至政治组织也会发生变化。社交机器人能不能组织自己的团队,社交机器人能不能组织自己的政党,社交机器人能不能够构建自己的社会组织?是谁把它当人了呢?

如果说,现在的弱人工智能机器人没有做到这一点,那么强人工智能机器人是否可以做到这一点?把它定位为社交机器人,而它又不是独立的个体,却可以发挥政治社交和社会社交的主要职能。如果说人和社交机器人之间的主体关系变了,其组织肯定也要发生变化,如何对以美国为代表的西方民主进行定性就成为一个新的问题,比如说,西方人说过去运行的民主是真民主,但把社交机器人加在里面,可能他们也搞不清是真民主还是假民主,人的民主是不是变成了机器人的民主?这次美国大选让人困惑的一个重要原因在于社交机器人瞬间变成政治社交机器人,通过政治社交机器人干扰选举舆论,选举过程中的谣言、谎言、阴谋论都与政治社交机器人有关。

如果承认社交机器人是有组织的社交机器人,那么下一个问题就是美国和西方其他国家这样做的时候,社交机器人究竟能不能创造出或者输出政治价值、政治观念、政治能力,社交机器人能不能进行政治决策。现在社交机器人做的是辅助性决策。如果民主的主体、组织发生变化,社交机器人的民主价值观念紧随其后,美国等西方国家与社交机器人究竟是什么关系就需要弄清楚。一旦社交机器人这一政治主体及其政治组织出现,社交机器人的政治观念紧随其后,其政治风险就可想而知,好在现在的社交机器人还没有达到强人工智能那种程度。但人们仍然看到美国大选过程当中社交机器人对于舆论的介入。当时有好多账户非常活跃,一旦选举结束之后,原本活跃的账号突然消失,或者不再活跃,变成“僵尸号”。

这个社会里面本来是人支配人的关系,人和人之间从政治的角度来说是政治舆论输出、输入、传导、相互激荡的关系,社交机器人真的能够独立输出政治舆论?当时美国选举的政治舆论是两个人的极化舆论,有的美国人想选特朗普,有的美国人想选拜登,社交机器人在政治舆论里面加入了第三种舆论,就是社交机器人本身创造的舆论,美国民众搞不懂,中国民众更搞不懂。

如果有的政治舆论是社交机器人,不是美国的民众,网民又分不清,那就很麻烦:喜欢拜登的,通过社交机器人把那些舆论做一个整合后再进行传播,只支持推送反对特朗普的政治信息和政治舆论;喜欢特朗普的,要支持反对拜登的政治信息和政治舆论。我当时已经写好了一万七千多字的文章讨论美国大选民调问题,最后也发现好多民调信息是基于社交机器人,它们参与了政治舆论的制造与传播。

社交机器人在美国大选中起了多少作用不得而知,但社交机器人破坏民主显然是不争的事实。社交机器人参与了这种舆论宣传,最后导致什么结果呢?社交机器人破坏了人们的民主价值,破坏了人们的民主观念,破坏了民主的主体,破坏了决策的主体,破坏了民主的情感。人们需要民主制度来保证民主选举,需要政治情感来支持民主选举,但社交机器人破坏了民主选举和民主情感,导致美国的民主选举成为伪民主。美国的社交机器人让我感到非常震惊,包括我自己在内,都传播了美国选举的错误信息。

人工智能可以往太空发展,但我不希望社交机器人侵犯人们的私人生活。中国的社交机器人应该和美国在高精尖领域开展竞争,别任由它跑进人的生活。疫情期间,到处都需要扫码进行人脸识别,在人群密集的公共场所还需要摘下口罩才能识别。要发展社交机器人,发展眼睛社交机器人,对着你的双眼拍照就可以。摄像机器人天天“监视”人们的私生活,不恰当地关注人们的隐私,使人们似乎感觉自己如同赤身裸体一样在大门外面到处乱跑。走在哪儿,机器人都知道你的具体位置,个人的尊严不仅没有得到保障,反而遭到侵犯。

(作者为西北政法大学新闻传播学院教授)

社交机器人领域研究进展及趋势分析

高山冰

我们团队这两年开始关注社交机器人应用领域,发表了一些研究成果。为了更好地熟悉这一领域,我们通过文献计量的方式对社交机器人国际发文现状做了分析。

社交机器人近几年受到非常多的关注,这从国际发文数量上就能看出来。从2010年到2020年发文增长率非常高,2019年达到最高的163篇。国内相关研究也是类似的情况,成果主要集中在2019—2020年。

社交机器人研究呈现出多学科的背景,成果分布在61个学科领域。其中,主要包括计算机科学、工程科学、传播学及通信科学等。从科研成果的署名信息来看,美国是发文量最高的国家,共发文235篇,占社交机器人总发文量的37.24%;其次是英国,共发文61篇,占总发文量的9.83%;其他国家虽有发文,但与发文量最高的美国依然有一定的差距。从中观层面统计科研机构对社交机器人领域的关注情况发现,全球有600多个机构曾参与社交机器人的研究。国内现在也有一些研究团队,比如北京师范大学、哈尔滨工业大学等。诸多学者可以从传播学、哲学、法学等领域一起来探讨社交机器人应用的话题。

我们通过高频关键词及关键词之间的共现关系揭示社交机器人的主要研究主题。图1呈现的是关键词聚类图谱,节点及关键词标签的大小代表词频的高低,同一颜色代表具有相似研究主题的聚类,节点之间连线的粗细代表共现频次的多少。

目前社交机器人的研究主题主要聚焦四个方面。

第一个是技术赋权下的社交机器人治理。主要是从技术治理层面来探讨两部分内容,即检测和模拟。前者研究内容侧重于社交机器人的检测方法与技术,主要是计算机科学在做的事情。后者是关于社交机器人活动路径的实验及跟踪的研究结果,可以帮助助后续的研究者提出针对性的检测方法和防御策略。

第二个是社交机器人的角色和影响。学者们围绕一些实际案例来研究,比如在美国大选、法国大选中,大量的社交机器人参与选举活动中,干扰了舆论走向。印第安纳大学布卢明顿分校的学者分析了2016年美国总统选举期间及之后的1400万条推特消息,发现社交机器人在虚假信息的传播过程中起着关键作用。

第三个是关于用户对社交机器人的看法及态度。最初的研究主要落在具体的行为层面上,比如转发、回复等。现在开始延伸到影响更为广泛的认知和态度层面,即分析社交机器人和人类用户在信息发布的主题以及情感上的差异,并做一些引导关系的研究。我们团队也在尝试运用心理学的相关实验来进行分析。

第四个是社交机器人和人类特征差异的研究。主要围绕社交机器人发文的长短、发布的时间点、语义的情感表达,甚至不同社交机器人的头像、主题词的定位等内容的差异来进行研究。这个主题的相关研究成果多是通过比较分析法展开的。

针对社交机器人应用出现的问题及后续研究,我谈几点个人看法,供大家批评。

首先我们还是需要关注社交机器人检测的问题。需要去了解社交机器人的角色与影响,社交机器人在社交媒体上的活动特征,社交机器人与人类的差异性等核心问题,进而探讨如何从技术角度对社交机器人进行治理。

其次,关于伦理的问题。这是现在人文社科类学者研究比较多的议题。有学者认为使用社交机器人存在欺骗性,带有政治操纵的性质,是一种腐败的行为,会扰乱网络秩序且不利于形成网络信任等。但也有学者认为人类可能高估了社交机器人带来的危害。我们团队通过抓取推特上的数据对社交机器人干预中国议题进行了分析,结果发现相关议题下可能同时有不同用途的多种社交机器人参与其中,但社交机器人对一些中国议题的影响力相对有限。

再次,关于研究本土化的问题。现在很多研究都是以推特平台为主,很少涉及微博等国内社交平台的研究。国内也没有类似于Botemeter这样专门识别社交机器人的工具。所以,在国内其他平台上,社交机器人的现状到底是什么样的,是否跟推特存在差异性等问题,也是我们团队关注的一个研究方向。另外,社交机器人在国内政治动员等领域缺乏土壤,但是涉及商业欺诈、粉丝操控、隐私侵犯等问题。针对这些问题,我们怎么去研究、怎么去应对、怎么去治理,值得各方思考。

最后,除了关注恶意机器人带来的负面问题,也不能忽略对善意机器人的研究。

此外,提到社交机器人,谈的更多的是在社交媒体上的算法程序。随着人工智能技术的发展,我们的分析对象可以从代码程序集上升到具有社交属性的其他智能体,比如智能音箱、车载智能体等。此类研究有可能会颠覆一些经典理论,也是我们下一步可以研究和探讨的方向。

(作者为南京师范大学新闻与传播学院副教授、硕士研究生导师)

永远不会有主宰人类的智能机器人

韩东屏

未来的智能机器人会不会主宰人类,甚至淘汰人类?

在关于人工智能问题的讨论中,这是一个前提性的问题,或者说前提性问题之一。

因为对这个问题的不同回答,将决定我们需要研究哪些具体的人工智能问题。如果是肯定的回答,即未来的智能机器人会主宰人类,那么我们现在最迫切的研究课题就是:我们是否应该允许这种情况发生?是否需要对智能机器人的技术发展采取限制措施?以及采取什么样的限制措施?如果是否定的回答,即未来的智能机器人不能主宰人类,那么,现在已经有人在做的如何防范智能机器人反叛人类的研究,如何与超人机器人和谐相处的研究,以及人类是否会在被超人机器人取代之前就安逸而死的研究之类,就成为不必要的研究。此外,解决这个问题,同时也能为智能机器人是不是人,是不是伦理主体,有没有人格,是不是一个真正的劳动者等问题提供答案。

现在,学术界在这一问题上存在两种观点:一种是“能主宰论”,认为未来的智能机器人会成为人类的主宰,甚至淘汰人类;另一种是“否主宰论”,认为智能机器人不能主宰人类。这两种观点都给出了很多的理由和论证。我对它们综合分析后发现“否主宰论”的论证比较无力,驳不倒“能主宰论”,尽管后者还含有假说成分。

“能主宰论”的立论是靠两种说法,都有预测的假说色彩。一种说法是,根据现在智能技术的发展速度和倍增定律,推断出在未来会有一个奇点,人工智能出现爆炸性的质的飞跃,于是智能机器人不仅具有主体性了,还有创造性,然后它在方方面面都会超越人类,也肯定会淘汰人类。另一种说法是,人工智能的发展分为弱人工智能、强人工智能和超级人工智能三个阶段。弱人工智能就是目前的状况,强人工智能比弱人工智能强很多,只是没有自主性和创造性。如果说,现在的弱人工智能只能完成一个单纯的任务,那么强人工智能可能会像工作者一样,能完成工作岗位上的所有任务,这就比较厉害。超级人工智能阶段的智能机器人,不仅能做一切人类能做的工作,而且既有自主性又有创造性,加之其计算能力本来就比人强大很多,所以其能力必然超越人类,从而成为人类的主宰。

面对有假说成分的“能主宰论”,“否主宰论”之所以仍然不能取胜,在于它都是在弱人工智能的前提下进行论证。比如,其技术性论证就是通过对现有的人工智能的状况及发展情况的分析,得出智能机器人的发展不会超越人类的结论。又如在差异性论证中,一个理据是智能机器人与人相比,没有情感,没有非理性意识。可是,没有这些意识,就意味智能机器人不比人聪明吗?另一个理据是说,智能机器人和人不一样,没有社会经历和社会实践,从而没有历史文化规定性,所以不可能超越并主宰人类。这个论据有点幼稚。在有大数据的条件下,智能机器人一“生”下来,不用实践、不用经历,就会拥有海量的信息,其中就包含比每个成年人都要多得多的各种知识,即科学知识、哲学知识、生活常识和历史文化知识。既然如此,怎能断言它没有历史文化规定性?再说,即便智能机器人没有历史文化规定性,也不是它无法超越、主宰人类的原因。人类历史上,野蛮民族战胜文明民族的事,并不罕见。还有一个理据是说,人能相互联合和繁衍后代而机器人不能。这也明显不对。智能机器人不会死亡就不用繁衍后代,既然机器人有智能,只要它们想联合就能联合在一起。“否主宰论”还有一种论证比较独特,就是认为未来的智能机器人即便全面超越人类,也不会淘汰人类,就像人类出现以后不会淘汰低等动植物一样,智能机器人也不会淘汰人类,而是会和人类和平相处。也许它不会淘汰人类,但现在问题是“主宰”,一个比人类更聪明的存在者,不会允许比他“笨”的主体来主宰自己和地球。

虽然“否主宰论”没有证成,却并不意味着“能主宰论”就是对的。因为它本身毕竟存在假说的因素,还未能确证奇点或超级智能机器人出现的必然性。也就是说,它只是说会有奇点、会有超级智能机器人。但为什么会有和怎样才能有的问题说得不清楚,更没有告诉我们,为什么这个时候的智能机器人就成为主体了,就有创造性了?

在我看来,这是不可能的。即使让智能机器人随便发展,发展到一万年以后也超越不了人类。为什么呢?我们就从最简单的事实说起,任何两个不同的实体,它们的性能必定是不一样的。我们找不到任何一个反例,即两个性能完全一样,功能完全一样,性质完全一样的实体,居然是两种不同的实体。

智能机器人的基本原理是什么?就是算法,算法就是逻辑思维,这就是智能机器人的基本性能。这个基本性能是以智能机器人的机脑为载体的。而机脑与人脑对比,在材料、结构、形态等方面都是有差异的。既然如此,只要是以电子元件为基本构成,然后以物理结构为结构,有一个非生物性的实体形态的机脑,就肯定同人脑不一样,性能也不一样,其中就包括不具备人的创造性思维,即便再发达的超级人工智能也是如此。为什么?因为无论怎么设计智能机器人的智能,只要它的载体不是生物性的人脑,最终依赖的都只能是算法,算法就是一种逻辑思维,它只能从有推出有,而不能无中生有。尽管当下的人工智能能写作诗词,甚至比一般的人写得还好,但其实这并不是创造,仍然是算法,只不过是把文字和前人的大量诗词变成数据,然后再将写诗词应遵循的规则、平仄、韵律之类作为条件编入程序设置好,智能机器人就可以通过重新组合文字而形成新的诗词。阿尔法狗战胜人类棋手也一样,底层机理都是运用数据按规则进行大量的快速计算,也就是从有到有的逻辑演绎。创造却是从无中生有,它是非理性的,也是非逻辑性的。在整个智能里,最厉害的成就就是创造。人之所以从动物变成人,就是因为人会创造并不断创造,而动物不会,智能机器人也不可能会,它只能运算,就是从已知推出已知,它创造不出来未知,所以永远不会比人厉害,永远不能成为人类的主宰。

退一万步讲,就算智能机器人也能创造,还是主宰不了人。为什么呢?因为智能机器人自身没有需要——它不是生物有机体,就没有需要,也不会生长。而没有需要又不需要生长,也就不需要做任何事。正如石头没有任何需求,自然没有做任何事情的动机。既然智能机器人本身是不需要做事的,也没有做事的动机,那么肯定是人类输入指令它才会行动。因此,智能机器人永远不会有真正的自主性,也不可能成为主体。

智能机器人没有需要也不会生长这一点,决定了它不具备所有生物都有的自利本性。在本性上,可以说智能机器人只有利人性,因为人把它创造出来就是让它为人服务的。

“能主宰论”关于人工智能能超越人类的技术论证,基本方法就是两个,一个是整体模仿或系统模仿,一个是本质性构造。

对于系统模仿,只要所用的东西与人脑不同,不是生物细胞,不是生物结构,不是生物形态,那就模仿不出来真正有人脑性能并包括创造力的人脑。而要想模仿出和人一样的人脑,就只有用和人脑一样的生物材料,可如此造出来的脑,最好的结果就是大脑,差一些的结果则是还不如人脑的脑。所以,此法不可能成功。

本质性构造法属于还原论,认为到了量子层面,物质和精神就不分彼此了,因而以量子计算为基础构造的机脑,就可以达到甚至超越人脑的水平。问题是,哪一个实体没有自己的量子层面?例如石头也有,可石头为什么没有意识?所以,在量子层面,不可能找到意识或智能的秘密。由此可推断,西方的还原论,作为一种解释方法,是有限度的,不能无限还原。其限度就是:复杂或高等级事物的运动或问题,不能用简单或低等级事物的规律或道理来加以解释。这就意味着,生物性事物才有的性能,不能用物理规律进行解释,不能到物理层面找成因。而且,同样是生物性事物,因复杂程度不同,其性能也会不同。如最高级的灵长类动物黑猩猩,虽然也有意识,却没有自我意识,更没有能够形成有创造力的想象力,原因就是其大脑的复杂程度远不如人脑。这就是说,要想造就一个同样富有创造力的智能机器人,必须得给它配备有机体的人脑,而人脑又不可能安装在一个无机体的身体上。

总之,我觉得对未来智能机器人的事儿一点儿都不用担心,让我们的人工智能大踏步地发展吧,这只会给我们人类生活带来巨大的改善。其中最好的事是什么呢?就是未来的人工智能会代替我们做很多工作,甚至所有可以还原为逻辑运算的各种工作,都可以被它替代。但是,这也并不是说人类就无所事事了,就会因无用而成为多余。这样的状况其实很好,它岂不是意味着,我们已经进入了马克思所设想的自由王国时代了吗?

自由王国是对必然王国的超越,必然王国就是人类必须从事必要劳动即物质生活资料的生产才能续存的世界。我们为什么发明那么多机器?不就是为了让人在劳动中省些气力,少干点活吗?我们为什么要缩短工作日?不就是为了让人拥有更多的闲暇或自由时间吗?物质生产基本上都是重复性劳动,创造性劳动则不然,它是人的本质力量的体现,也是人的自由和自我价值的体现,所以它是快乐的劳动。当人类把必要劳动和物质生产交给智能机器人之后,自由王国就出现了。这时,每个人都可以根据自己的兴趣、爱好,去从事展现自己本质力量和创造性的劳动,从而让自己的才能充分发展或全面发展。这无疑是人类最理想的状态。

(作者为华中科技大学哲学学院教授、博士研究生导师)

智能伦理亟待重构(2) 本文系国家社会科学基金重大招标项目“人工智能前沿问题的马克思主义哲学研究”(19ZDA018)的阶段性成果。

孙伟平

人工智能何以成为近些年来伦理道德反思的焦点?我想,可能主要基于以下两个方面的原因。一方面,人工智能是深刻改变世界、有远大前途、应用前景广泛的基础性技术。近年来,人工智能的发展日新月异,各种专用的智能系统表现优异,给人以巨大的冲击和深深的震撼。另一方面,人工智能是一个具有革命性、颠覆性的“新事物”,它目前远未成熟,尚难准确地预料其后果。智能技术与生物技术有机结合,突破“图灵奇点”、超越人类智能日益成为大概率事件,这可能导致天翻地覆的变化。但在这种前所未有的冲击中,人类并没有做好必要的准备:不仅对于人工智能是什么、发展趋势如何尚未取得基本的共识,也无法掌控人工智能的发展和应用方向,而且相应的政策取向比较模糊,伦理规制比较缺失,法律法规不太健全,不知道如何应对由之而起的经济、政治、社会和文化难题。

正因如此,我们需要未雨绸缪,围绕“兴利除弊”的目的重构智能伦理,既努力发展人工智能,令其“为我所用”,造福人类,又建立必要的防御机制,防范其可能导致的风险和代价。

首先,我们应该看到,人工智能是一项前沿性的基础性技术,是新型的智能社会的基本技术支撑,在伦理道德建设方面具有十分积极的作用。

经济活动的信息化、智能化,例如智能机器的广泛使用、智能产业的快速崛起、商业营销方式的变革等,在促使产业、经济快速转型升级的同时,大幅提高了劳动生产率和生产力水平,创造出物质财富极大丰裕、人民生活水平普遍提高的局面,为社会的良性发展和伦理道德水平的提升奠定了坚实的物质基础。

大规模使用智能系统(智能机器人)代替人工作,特别是基于信息化、智能化的“无人化”运动,逐步将人从一些繁重、重复、单调、有毒、有害、危险的工作(环境)中解放出来,这不仅使得工作环境和工作条件不断改善,生产过程越来越人性化,而且节约了大量人力资源和人的劳动时间,增加了人的自由活动时间,使人得以摆脱异化人的旧式分工,有条件获得自由、全面的发展。

人工智能在军事、教育、医疗、体育、文艺创作、社会治理、环境保护等领域的广泛应用,为人们的学习、工作和生活提供了丰富多彩的选项,极大地拓展了人们的生存和生活空间,重塑了人们的学习方式、工作方式和休闲娱乐方式,从而全方位地提升了人们的生活品质。

人工智能可以运用于虚拟现实之中。在虚拟现实中,例如虚拟的体验式、交互性活动中,一个人可以在身体及精神方面成为一个不同的人,并且可以按意愿选择不同的体验。

此外,人机结合、人机协同、人机共生、人机一体化……可能帮助人自身变得越来越聪明、能干,越来越深入许多新的领域、新的智能时空域人们不断开发各种有针对性的智能系统,帮助残疾人或身体有疾病的人克服身体的疾患和局限性。人工智能使人们获得越来越全面、自由的发展,成长为适应智能时代特点的“时代新人”。

其次,人工智能并非“天使般的高新科技”,它可能导致的负面效应也很令人头痛,随之而来的问题与挑战十分严峻。

人工智能是建筑在大数据基础之上的。大数据资源本身是否完整、可靠,是否及时更新,数据采集、存储是否合法合规(例如是否遵守“知情同意”等伦理原则),都可能隐藏着风险。目前的数据采集、存储和应用过程中,存在大量侵犯个人隐私和相应主体权利的做法;一些不法组织或个人经常利用非法收集、持有的大数据,对人进行“分析”,利用分析结果从事骚扰、诈骗、恐吓活动。

算法是人工智能的灵魂和“中枢神经”,但算法不过是以数据为基础的计算机运行程序,它本身并非天然可靠,而是常常暗含歧视与偏见,或者放大既有的社会歧视与偏见。例如,市场主体可能基于唯利是图的“资本的逻辑”,利用从各种渠道收集、购买的消费者大数据,编写具有歧视性、诱导性甚至煽动性的算法,进行有针对性的“智能推送”“大数据杀熟”之类的市场营销,从而坑害消费者,实现经济利润最大化。

随着人工智能的飞速发展和广泛应用,智能系统的“类人智能”和劳动能力日益增强,正在取代人类承担越来越多的劳动任务和劳动职责。人相对而言正变得越来越笨拙,难以适应智能科技的快速发展和社会的快速智能化。这不仅导致“数字穷人”等弱势群体日益丧失劳动的机会和权利,酿成“技术性失业”的风潮,而且令“数字穷人”沦落为尴尬的“无用阶层”,被经济和社会体系排斥在外,丧失存在的价值和生命的意义。

人工智能甚至正在侵蚀一些传统的伦理道德关系,例如爱情和婚姻关系,动摇传统的家庭结构。目前人形智能机器人发展很快,它们不仅可以做家务,当助手,陪人聊天解闷,一起嬉戏玩耍,甚至可以和人“打情骂俏”“谈情说爱”、私人订制性爱机器人“伴侣”……当人形智能机器人不断取得实质性突破,以宠物、情人、伴侣之类的身份进入家庭,成为家庭中的新成员,历史上延续了数千年的家庭关系、家庭伦理就难免受到强烈的冲击。

此外,近年来一直令人不安的是,有科学家认为,人工智能超越人类的“奇点”正在迫近。这不仅令人类的优越性、主导地位和尊严面临前所未有的挑战,而且直接将人类自身置于极大的不确定性和风险之中。例如,具有自主意识、具有学习和创新能力的超级智能,是否可能“失控”,反过来统治、主宰人类,“将人类关进动物园里”?即使超级智能本身没有干坏事的欲望和动机,但如果有人将不良的动机和错误的价值观输入超级智能的算法之中,或者利用黑客技术操纵超级智能,后果将是人类不可承受之重。

再次,人工智能的快速发展和广泛应用,对伦理道德的主体——人本身带来了极大的挑战,这种釜底抽薪的变化令传统的伦理道德进入了“革命的前夜”。

随着通用人工智能特别是人形智能机器人的快速发展,“人是什么”,或者说“谁”可以成为伦理道德的主体,成了一个不那么确定的问题。一方面,人正在被各种智能技术、生物技术所“改造”,自然人日益被各种高新技术和装备“武装”起来,人机协同甚至可望人机一体地开展生产和生活;另一方面,智能系统特别是人形智能机器人的智能(思维)水平突飞猛进,甚至日益具有自主性、计划性和创造性,表现得“越来越像人”,许多单项能力甚至已经超过了人。自沙特阿拉伯于2017年10月25日授予汉森机器人公司研发的智能机器人索菲娅(Sophia)公民身份以来,智能机器人是否是“人”?人的本质究竟是什么?这些就成了令人尴尬的“真问题”。

在文明史上,人一直占据着无可争议的主导地位,机器从来只是人类的工具。如果智能机器人具有类似人类的智能,在一定意义上是“人”,那么,人是一种什么样的“类存在物”就变得不确定了,人类的中心地位就被动摇了,以往一切立足于人的立场的伦理理论和道德实践都需要进行革命性反思。即,以往人是唯一的伦理主体或道德主体,现在,智能机器人也可以拥有公民身份,也可以成为伦理主体或道德主体。那么,什么是善?什么是恶?区分善恶的标准是什么?应该由谁掌握道德评价、道德教育与道德管理(决策)权,等等,都需要根据人机关系的发展状况重新进行反思,调整和重构看来不可避免。

这种伦理道德的主体的反思、调整和重构,无疑是一场空前激烈的革命,它可能导致许多颠覆性的后果。例如,在重构新型的人机关系时,智能机器人是否具有“人格”和“尊严”?是否应该享有与人一样的权益?是否应该、是否能够承担相应的行为后果……这类问题诚然具有挑战性,但也并非不可讨论。实际上,目前宠物(如猫、狗等)都已经“争取”到了一定的动物权利,人形智能机器人明显更加“高级”,因而完全有理由获得更多的尊重,拥有更多的“人权”。

综而言之,伦理道德正处在一个关键的转折点上。无论如何,在这场前所未有的“伦理大革命中”,人类需要“猛醒”,需要反思,需要行动:破除“人类中心主义”意识,克服狂妄自大的傲慢与偏见,延展哈贝马斯的主体间的交往理性和商谈伦理,重新认识、界定“人”和人机关系,重新商讨相应的伦理规范和行为准则(特别是确定不可逾越的“底线伦理”),从而建构一种新型的人机协作、人机和谐的伦理新秩序。

(作者为上海大学伟长学者特聘教授、上海大学哲学系教授)

人工智能与意义世界的重构

程广云

人工智能的意义问题诚然是一个很重要的问题,但人工智能最主要的挑战是它正在整个地摧毁我们现有的意义世界。这个问题涵盖很广,不限于就业、创造方面的问题。马克思在《资本论》中讨论机器问题时,就提出了“铁人反对有血有肉的人”这一论断。人工智能正在加速度淘汰我们,使我们成为“多余的人”。如果人最引以为傲的创造性活动被人工智能所取代,我们人生的意义又在哪里呢?譬如现在有诗词创作软件和外语翻译软件,经过这几年的发展,写得、译得还真像模像样,以至于孙周兴这样的翻译家,都说“翻译的时代过去了,说唱的时代到来了”,大约是说人工智能取代翻译行当,说唱文化取代书写文化,但这仅仅是过渡,说唱也将不再是人类的专利。有人以为人工智能不会动情,不会犯错,总要给人工智能划出界限,为人类智能留一块地盘。其实情感也好,错误也罢,只要表现为信息的传输,原则上人工智能就能模拟。我们周围的一切几乎都在被人工智能所取代,这是表象的问题。我们今天需要思考的是:我们能不能避免被人工智能所取代?人工智能会不会全盘地颠覆我们现有的意义世界?在解构原有的意义世界后,我们能不能重构我们的意义世界?

为了给出我思考问题的框架,首先解释一下我理解的人工智能。我所谓的人工智能不限于狭义的定义,广义地讲,诸如基因编辑、虚拟现实之类的高新技术都应该被包括进来。它有三个方面的基本含义。

首先,人工智能出现了智能机朝着机器人方向的技术改进趋势。智能机还是我们的工具和手段,机器人已经作为一种类人主体存在,也就是说,人工智能发展到一定程度,有可能通过科学技术的手段,创造一种未来的智能生命。从科学家们提出机器思维的问题起,从弱人工智能、强人工智能、通用人工智能到超级人工智能,从逻辑推理、概率推理到因果推理即从形式化、经验化到理性化,人工智能一直朝着创造一种智能生命的方向发展。赵汀阳说:这是“存在论级别的生命升级诱惑”。生命,正如思维一样,不应从本质主义去定义,而应从功能主义来定义,切忌以生命的现存方式来限制我们理解生命的可能方式。

其次,一些科幻作品所设想的机器人和自然人之间的终极战争、机器人奴役自然人,只是一种可能,其实还有另外一种可能:不仅机器可能升级成为“类人”,即作为机器人的智能生命(即“硅基人”),人类本身即自然人的智能生命也有可能升级,甚至动物、植物和微生物都有可能升级(即“碳基人”)。像基因编辑就是这方面的技术手段。还有,人机之间或机器与动物之间同样出现了由“外挂”到“内联”的技术改进趋势,等到大脑植入智能芯片,赛博格(Cyborg)等出现,就到了所谓“后人类纪”。

最后,整个智能环境的出现,可能比前面两项更重要。像虚拟现实就是这方面的技术手段。比如有一次我置身于上海迪士尼乐园的虚拟现实环境中,感觉所谓真实和虚假的界限完全被突破了。如果一块智能芯片能够带来一种智能,不仅赋予机器以智能,而且赋予草木、土石以智能,那么我们整个生存环境都会改变。在这样一种改变下,从我们现有的科学技术可以推论出一种未来的生存状态,我们的意义世界又将会发生怎样的改变呢?

我再简单介绍一下什么叫“意义世界”?可以说,意义世界的出现,就意味着世界的二元化。李泽厚说:中国人生活在一个世界,西方人生活在两个世界。我认为这是错的。所有人都生活在两个世界,就是世界的二重化:意义世界和生活世界的分离。具体地说,就是人类在意识到了自身的有限性后,一直要求突破其有限性,当然是从几个方面分几条路径来寻求突破,比如在生与死的张力中,追求一种永在;在自我与他人的张力中,追求一种共在;在苦与乐的张力中,追求一种善在,等等。意义世界是这样生成的,这是我们人类即自然人所生成的意义世界。在历史上这方面的例子很多,比如上古颛顼时期“绝地天通”,“地”代表生活世界,“天”代表意义世界,“绝地天通”可能就是中国人建构意义世界的一个原始证据。

人类建构意义世界的方式和方法当然还有很多,从肉体不朽、灵魂不朽到社会不朽,从历史理性、生命激情、审美主义到宗教情怀,等等。像《愚公移山》讲的,个人有死,但是通过代际延传达到一种无限;“《春秋》三不朽”(即“立德、立功、立言”),就是历史理性所追求的社会性不朽;像庄禅讲的“瞬刻永恒、刹那终古”,就是审美主义。在某种意义上,建构意义世界是现代性的表征,而解构意义世界则是后现代的表征。虚无主义是解构意义世界的价值倾向,当然早就有了,如佛教的苦感文化和解脱(涅槃)诉求等。尼采有个寓言,说是一个猎人抓住了一个酒神的伴护,询问什么对于人类最好,得到的回答是,最好是不要出生,次好是立刻死去,这就是一种虚无主义的说法。末人说很流行,许多人都讲过。末人相对初人而言,初人在创建意义世界,末人在消解意义世界;初人还有生殖欲望,末人已无生殖需求,既不是没有条件,也不是没有能力,而是失去了生殖后代的愿望。我们现在有一些青年人所谓“躺平”,其实就是一种末人状态。这就告诉我们,人类所建构的意义世界,其根基是非常不牢靠的,面临着虚无主义等解构力量的挑战。

但现在又出现一种态势,就是所谓人工智能“临近奇点”:在某个意义上,主要是突破两个界限:第一是突破死亡界限,第二是突破自我界限。当然突破有相对突破和绝对突破两种可能,比如永生是绝对突破,长生是相对突破,还有再生、复活,等等。有人以为这不可能,并且以人的需要、创造能力不可移植不可复制为证据。其实不然!人的所谓需要(如食欲、性欲等)是具有物质(生理)基础的,同样可以模拟;创造能力亦非无中生有,同样可以编码。在某种意义上,对死亡的突破就是对自我的突破,这有各种可能,譬如更换载体(从肉体到机体乃至虚拟形态),移植记忆,复制个性(特定刺激——反应模式),等等。在这种前提下,我们原来建构的意义世界应该就不成立了,因为它是以生命和自我的有限性为前提的,所以我们整个的形而上学亦即原有的意义世界完全被格式化。这就提出了重构意义世界的问题。

如何重构意义世界?我的基本思路就是从前意义世界寻找我们重建后意义世界的经验和智慧。简单地说,人类原来是通过突破一种有限性,想象出无限性,通过这样的存在来建构意义世界。现在出现的状态又是什么呢?就是人们原来以为是虚幻的东西,比如像《一千零一夜》《西游记》这些神话故事,像《三体》小说中的科幻情节,最终都可能通过科学技术来实现。我们从两个世界重新回到一个世界,我们现在的生存状态是朝向这个目标运行的一个过程,我们根本的生存状态又改变了,我们从生活在两个世界重新回到生活在一个世界,但不是回到原有的那个单一的生活世界,而是将意义世界融化于生活世界。假如说初人或者说类似动物的人是生活在一个世界,就是现象的世界、经验的世界或生活的世界的话,那么未来人们所生活的世界,就是我们原来所建构的意义世界,随着生命的升级,它降级为生活世界或者说被现实化亦即被虚拟化。从前我们以为科学技术是在解构意义世界,现在我们应该相信科学技术是在实现意义世界亦即虚拟意义世界,将意义世界降级为生活世界。在这种情况下,许多东西都将改变。我们原来以为是绝对真理的基本命题,譬如海德格尔所谓“终有一死的人”(“向死而生”),可能就不再成立了,这个问题非常严重。但是,假定人不死,人活着还有意义吗?这仍然要打一个问号。从前人类在建构意义世界时向往不朽,假定我们都获得了不朽,人生就有意义了吗?这仍然要打个问号。我曾做过两个文本的比较研究,一个是中国古代的“吴刚伐桂”仙话,一个是古代希腊的西西弗斯神话以及加缪的存在主义阐释,研究的结论是,早期人类已经发现一个问题:人类即使获得了不朽,生活的意义问题仍然没有得到解决。波伏瓦有一部小说《凡人必死》(或译《人都是要死的》)就是对这个问题的存在主义思考。

在这一严峻形势下,意义世界的重构才是我们真正应该思考的一个形而上学问题,它比我们所谓的伦理道德问题或法律问题更严重。人们试图以人类的伦理道德和法律来规范、限制和引导人工智能的发展,这一努力面临诸多困难,国家之间的竞争甚至某些个人的冲动,都会放大人工智能存在的风险。机器人为什么要遵守自然人的伦理道德和法律?其实只要知道我们人类为什么要遵守自己的伦理道德和法律就可以了。简单地说,所谓伦理道德是一种直言律令,即应当做什么、不应当做什么;所谓法律则是一种假言律令,即假如你做了不该做的或不做该做的应该受到什么惩罚,假如你做了该做的或不做不该做的应该受到什么奖励。这种规范化和制度化的律令之所以具有预期效应,是因为人类具有好生恶死和趋利避害的本性。如果我们让机器人也遵守自然人的伦理道德和法律,那么我们可以输入必要的指令,同时也让机器人像自然人一样地拥有快乐和痛苦的感觉,这个目标就基本达到了。但是,这里仍然存在一个问题,即使机器人像自然人一样地遵守人的法律和伦理道德,大家和谐相处,我们的生活意义又在什么地方呢?这比所有与人工智能相关的问题更高级,甚至是一个最高级的形而上学问题。

问题的提出就包含了问题的解决。既然意义世界降级为生活世界,形而上学也就降级为形而下学。换句话说,意义不在生活之外,而在生活之内。意义通过虚拟而实现,通过虚拟化而现实化。也许,生命突破死亡界限而连续不断;个体突破自我界限而增容扩容;苦与乐、幸福与不幸都还原为感觉,而感觉则可以复制、移植;不再有成就,但可以有成就感;不再有荣耀,但可以有荣耀感……生活具有无限可能——意义世界和生活世界的合成可能就是未来智能生命的生存境况,现已渐露端倪。

(作者为首都师范大学政法学院教授、博士研究生导师)

寻求人工智能伦理的国际共识——以欧盟人工智能伦理建设为例

杨通进

近年来,随着逆全球化、反全球化、民粹主义、狭隘民族主义等极端思潮的沉渣泛起,冷战思维、东西文明对抗的观念在一些国家或地区得到追捧,国际局势变得扑朔迷离。在这种情况下,谈论和倡导全球共识,似乎显得有点不合时宜。但是,从维护全人类共同利益的角度看,越是在国际局势晦暗不明的时候,学界越是要保持头脑的清醒。殷海光曾说“知识分子是时代的眼睛”,知识分子的这双眼睛不应当、也不能被时代的各种浊流所遮蔽。历史上,对国际秩序的思考与建构往往是在国际局势的晦暗不明的背景下展开的。康有为在1902年写下倡导世界主义与世界国家之《大同书》的时候,正是中华民族救亡图存、尝试建构现代民族国家的关键时期。雅斯贝尔斯也是在德国战后重建、冷战开始形成的时期,倡导世界主义和全球公民理念的。因此,在全球网络共同体建构初期、AI研发的国际合作前途未卜的敏感时期,思考、讨论和寻求人工智能伦理的国际共识正当其时。

一、全球共识的紧迫性与重要性

思考、讨论和寻求人工智能伦理的国际共识之所以是必要的和紧迫的,这是由AI技术本身的重要性决定的。从某种意义上说,AI技术是到目前为止对人类的社会生活、社会关系、人的历史产生的影响最为深刻、最为广泛和最为长远的一项技术。

首先,AI技术对人本身、对人的自我认识和自我理解产生了深刻的影响。人是什么?人与机器的区别在哪?人的自我以及自我的边界在哪儿?智能是什么?人的身体与心灵的关系是什么?人工智能技术尤其是以强人工智能为基础的机器人技术对这些问题的思考和回答都向人类提出了前所未有的挑战。实际上,就人的自我认同而言,人工智能对每一个人都产生了巨大的影响。现在,大多数人都离不开手机,手机似乎成了“无机的身体”;花费在手机上的时间不仅改变了我们的生活习惯,还改变了我们感知与认识世界的方式。随着社会管理和日常交往方式中电子化程度日益提高,我们所有的信息都将“暴露在电子网络”里,我们就是我们的电子信息,我们的电子信息就是我们自己。

AI技术也将对人们的社会关系产生深刻影响。以强AI技术为基础的各种专用和通用机器人日益进入人们的生活世界,人们的社会关系将会变得更为复杂和多样。目前,是否研发和销售性爱机器人已经成为人们关注和争论的一个焦点问题。美国学者戴维·莱维在《与机器人相爱并做爱》(2007)中预言,到2050年,机器人将会获得与人相爱的能力,并把自己塑造得“浪漫可爱与性感可欲” ;人和机器人相爱甚至结婚在2050年都会成为现实。2014年以来,他每年都在世界不同的地方举办一次“世界性爱机器人大会”,倡导人们承认并从法律上认可人与机器人婚姻的合法性。许多人认为,当我们从立法的角度承认和接纳同性婚姻后,人类追求“婚姻平等”的任务就完成了。但是,在莱维看来,这个任务还没有完成,婚姻革命的下一个目标就是实现人-机(机器人)婚姻的合法性。(3)Levy D, Love and Sex with Robots, New York: Harper Collins e-books, 2005, pp.37, 152.

与莱维针锋相对,英国德蒙福特大学的伦理学教授凯瑟琳·理查德森则从2015年起发起了“反对性爱机器人运动”。理查德森认为,性爱机器人有物化女性和儿童的嫌疑;在与人的性爱活动中,性爱机器人基本上都是被动的接受者,这种不平衡的关系将会助长人们的性虐待行为,长此以往,针对性爱机器人的性虐待狂将会对真正的人类异性缺乏同理心和同情心;与性爱机器人的性行为实质上等同于性交易,如果不加以规制,这种性交易行为将逐渐泛滥。理查德森的结论是,将性交易行为扩展到机器人身上,既不安全,又有违公序良俗。(4)Richardson K, “Sex Robot Matters”, IEEE Technology and Society Magazine, Vol.35, Issue 2(2016): 46-53.据报道,目前荷兰阿姆斯特丹的红灯区已经提供机器人的“性服务”。关于人与机器人的性爱伦理问题,现实已经走在理论的前面。我们该不该研发性爱机器人,该不该销售和使用性爱机器人?性爱机器人与我们平常看到的日本销售的情趣用品是一回事吗?人们能够同时拥有一个人类伴侣与一个机器伴侣吗?人-机(机器人)婚姻中的夫妻关系应当是一种平等的关系吗?这对未来的人际关系提出了全新的挑战。

其次,AI技术对人民与政府之间的力量平衡也产生了微妙的影响。在一些国家或地区,先进的AI技术给人民提供了更多的自由空间,给民主的实现提供了更多的有效渠道。但是,先进的AI技术也能成为政府有效控制人民的工具,先进的网络技术可以帮助政府建立起空前强大的警察国家,从而对公民的基本自由构成严重的威胁。如果人们就政府如何使用AI技术的问题无法达成某些基本的共识,那么,AI 技术将可能会成为政府剥夺公民权利、限制公民自由的帮凶。

再次,AI技术的发展会影响国际关系的发展与调整。目前,关于如何合理使用无人机的问题,已经引起人们的广泛关注。就国际关系而言,一般认为,每个国家的领土和领空都是神圣不可侵犯的;未经主权国家的同意就越过其边界的行为属于侵略行为。但是,进入某个国家领空的无人机上面没人,这算是入侵该国领空的侵略行为吗?国际法对此尚无定论。自主武器系统的研发也是人们关注的一个焦点问题。20世纪40年代末,爱因斯坦曾撰文指出,他非常后悔参与了原子弹的研发;在他看来,在人类的道德能力还没有得到充分发展的情况下,研发先进的武器只会使人类社会变得更不安全。因此,爱因斯坦晚年积极投身和平运动,呼吁科学家承担起确保科技进步造福于全人类的道德责任。在目前的国际局势下,科学家是否应当参与包括杀人机器人在内的自主武器系统的研发?对这类武器系统的研发会不会引发新一轮的军备竞赛?

2019年6月,清华大学战略与安全研究中心与美国布鲁金斯学会启动了“人工智能国际治理”项目,力图就人工智能技术对国际安全提出的挑战及其治理进行研讨和对话。清华大学战略与安全研究中心主任傅莹和布鲁金斯学会会长约翰·艾伦分别表达了各自的观点。傅莹认为,虽然人工智能武器化不可避免,全面禁止人工智能武器很难达成全球共识,但是,目前正是“构建人工智能国际安全规范的关键窗口期”。作为在人工智能技术研究和应用方面发展最快的两个国家,中国和美国需要在这个领域加强协调与合作;“中美开展对话与合作非常重要,将能够为全球人工智能治理合作贡献智慧。因此,中美两国应推动构建国际层面的规范和制度进行正式讨论,在各自利益关切的基础上探索合作领域。”(5)傅莹:《人工智能与国际安全治理路径探讨》,《人民论坛》,2020年第36期,第6-7页。傅莹与艾伦共同署名发表《共同合作,美中就能降低来自AI的风险》,他们指出AI技术尤其是以AI为基础的自动武器系统尚处于发展的初期,没有最终定型,因而,我们仍有机会发展出新的规范、新的信任措施,划定新技术的使用边界;一旦这类技术发展成熟并被广泛使用,就很难构建用于约束这些新兴武器之使用的规则了。(6)Fu Y, Allen J, “Together, the U.S. and China Can Reduce the Risks from AI”, Noema, Dec. 17,2020,https://www.berggruen.org/people/fu-ying-john-allen,July 3,2021.联合国有关组织也非常关注致命性自动武器系统的研发。2012年以来,联合国人权观察组织与哈佛大学国际人权法研究中心每年都发布一项限制和禁止致命性自动武器系统的倡议,提醒联合国尽快制定相关的国际法,限制、监控与规制致命性自动武器系统的研发、管理与使用。(7)Human Rights Watch and International Human Rights Clinic, “Making the case: The dangers of killer robots and the need for a preemptive ban”, Dec. 19,2016,https://www.hrw.org/report/2016/12/09/making-case/dangers-killer-robots-and-need-preemptive-ban. July 7,2021.

除了会影响国际安全和人类和平,AI技术对于建设更加公正的国际秩序的也构成了挑战。因为,随着数字鸿沟的出现,某些国家可能会借助新的AI技术更加有力地维护全球等级制度;在这种全球等级制度中,少数国家可能会处于顶层,操控国际社会的运行规则,使大多数国家永远处于被支配与被控制的地位。

最后,AI技术将会对人类历史的未来产生深刻的影响。如今,随着以信息技术为中心的技术圈的进一步发展,人类走上了一条日益依赖技术圈的道路。但是,越是复杂的技术系统,所潜藏的风险与不确定性就越大。目前,作为个体,每一个人的隐私(包括人际交往信息、银行账户信息等)都有可能被泄露。面对越来越完善和无所不包的信息系统,每个人都感觉到自己无所逃遁,我们的所有信息(包括隐私)都完全掌握在信息管理机构(或有权使用这些信息的机构或个人)的手中。我们就这样在不知不觉中走上了一条依赖技术圈的不归之路。例如,当代人见证了电脑的发展与完善的过程笔者这一代人曾经用笔和纸进行写作,但是现在,我们的写作和思考都离不开手边的电脑和强大的互联网了。AI技术对人类生活的深刻影响由此可见一斑。

总之,AI技术对人类的影响不仅广泛而且深远,因此,必须要对AI技术的研发与使用进行某种治理。但是,治理的目标是什么?怎么治理?对AI技术的治理应该达到什么样的状态?在治理过程中应该采取哪些措施?对这些问题的回答都涉及基本的价值与规范。国际社会只有首先在基本的价值与规范层面达成共识,才能就AI技术的国际治理达成统一的认识。

对AI技术的治理既涉及政治和法律层面的问题,也涉及价值与伦理层面的问题。而国际社会在政治与法律层面之所以难以达成共识,首先是由于在价值与伦理层面存在较大的分歧。因此,在价值与伦理层面达成共识,是解决政治与法律层面的国际分歧的前提。在价值观与伦理层面达成国际共识,对于AI技术的全球治理至关重要。

人类的道德能力尤其是国际道德能力的成长对于AI技术的全球治理也非常重要。在国际社会还没有完全脱离自然状态,尚未进入国际法治的文明状态的前提下,任何先进的杀人武器的发明都不会给人类带来和平,反而会使国际局势变得更加复杂。核武器的发明给我们提供了一个悲惨的教训。20世纪40年代中期美国发明原子弹以来,对核技术的控制与争夺就一直是国际局势紧张动荡的因素之一。在今天的国际关系中,朝鲜问题、伊朗问题都是围绕核技术的研发与控制展开的。以色列派无人机攻击伊朗核工厂的行为是加剧中东紧张局势的重要因素之一。目前,人类在控制核武器方面陷入了一种非常荒诞的困境:一旦拥有,就不愿放弃;对于使用核武器的毁灭性后果,大家都心知肚明,因此,谁都不敢首先使用核武器;核武器虽然不会被使用,但是,拥有核武器的国家每年还要花费巨额资金来维护这些核武器。如果人类任由致命性自主武器系统被研发与使用,那么,未来的世界是更安全还是更不安全?殷鉴不远,答案一目了然。今天,面对AI技术可能给人类带来的巨大风险,人类不能忘记发展科学的初心和使命。发展科学的初心是要促进人类的解放,给人类带来幸福。如果我们要让AI技术实现这个初心,那么,就必须对AI技术的治理达成全球共识,用国际制度与国际规范来确保AI技术被用于造福全人类,促进全人类的幸福和解放。

二、欧盟AI伦理建设及其启示

在民族国家内部,就AI伦理建设达成共识是相对较为容易的。但是,要在不同国家之间达成AI伦理建设的共识,却面临诸多挑战。欧盟的AI产业相对中国与美国来说虽然不是那么发达,但是,欧盟的AI伦理建设,尤其是在跨国层面对AI伦理共识的寻求,值得我们关注、借鉴和学习。

欧盟在跨国层面的AI伦理建设工作始于2015年。2015年1月,欧盟议会法律事务委员会成立了专门研究机器人和AI技术之法律问题的工作小组;次年5月,该小组向欧盟委员会提交了“机器人民法报告草案”,呼吁欧盟重视并评估AI技术的社会经济、法律与伦理影响。2017年1月,该小组主张制定“机器人宪章”。同年5月,欧洲经济与社会委员会发布第一份关于AI治理的报告,主张关注AI给伦理、安全、隐私等11个领域带来的机遇与挑战,倡议制定AI伦理规范,建立AI监控与认证的标准体系。10月,欧洲理事会指出,欧盟应认识到AI治理的紧迫性与必要性,确保制定出高水平的数据保护和数字权利的伦理标准,并要求欧盟委员会在2018年初提出应对AI发展新趋势的对策,将AI伦理与AI治理确立为未来立法工作的重点内容。

2018年,欧盟的AI伦理建设走上快车道。同年4月,欧盟委员会发布了AI发展的战略性政策文件《欧盟人工智能》。该战略包括三大支柱:第一,提升AI技术与产业能力;第二,积极应对AI带来的社会经济变革;第三,建立适当的伦理和法律框架,起草并制定AI伦理指南。6月,欧盟成立由52人组成的人工智能高级专家小组。12月,欧盟委员会发布《人工智能协调计划》,提出了欧盟人工智能计划的三大总体目标:符合伦理规范、安全可靠、技术先进。该计划还提出了,项具体的目标。其中,第六个目标是建立人工智能伦理监管框架,推动欧盟AI伦理标准尽快问世;第八个目标是加强人工智能国际合作,组织召开AI国际部长级会议,就AI伦理准则寻求国际共识。

2018年12月,人工智能高级专家小组起草了欧盟AI伦理准则初稿。在征求多方意见并与欧盟委员会商讨完善后,欧盟AI伦理准则的最终版本《可信人工智能伦理准则》与欧盟委员会的相应政策文件《建立以人为本的可信人工智能》于2019年4月8日同时发布。《可信人工智能伦理准则》首先确定了可信AI的三个特征,即合法性、符合伦理与稳健性(鲁棒性)。该准则还提出了建立可信 AI 的四个基础性原则:尊重人类自主性原则、防止伤害原则、公平原则、可解释原则。该准则最后还提出了实现可信AI的七条具体的措施,许多措施都涉及伦理规则(如透明性原则,多样性、非歧视与公平原则)。这些原则和准则为欧盟的AI伦理建设提供了基本的构架。随着《可信人工智能伦理准则》的发布,欧盟的人工智能伦理建设初步完成。

欧盟的AI伦理建设给我们提供了许多启示。其中最重要的有两条。第一,对AI的治理不能仅仅采取技术的进路。AI技术的发展离不开社会、政治、经济、法律、文化、伦理等方面的共同支持,合适的社会背景是AI技术得以发展的基本前提。AI技术带来的许多问题(包括技术瓶颈方面的问题),是不能仅仅依靠技术本身加以解决的。AI技术所带来的伦理问题,只能通过相应的伦理对策来加以解决。

第二,寻求AI伦理的国际共识不仅是可能的,而且是可行的。AI技术是没有国界的,AI治理的某些核心价值与基本原则也必须是国际共享的。缺乏AI治理伦理的国际共识,不仅无法实现AI治理目标,AI技术的发展可能还会给人类的生存与发展带来新的困境。AI治理伦理国际共识的达成,不仅有助于消除AI产品的贸易壁垒,更有助于AI技术的协同发展。尤其重要的是,在以民族国家为主体的现有国际秩序下,达成AI伦理的国际共识是可能的。20世纪80年代以来,随着全球化进程的加速,一个真实的全球共同体(尤其是全球问题共同体)正在形成;人类面临的一个重要挑战就是,人们能否超越狭隘的民族主义价值观,建构一种世界主义的全球伦理和全球公共政治文化,以便为全球问题的跨国治理提供必要的伦理基础和道德动力。欧盟AI伦理准则的国际共识给我们提供了一个建构超越国界的伦理共识(尤其是AI伦理共识)案例,为我们构建全球层面的AI伦理共识提供了重要的启迪。

三、寻求何种共识

AI伦理包括三个层面的伦理,即宏观AI伦理(AI研究者、生产者与用户的伦理),中观AI伦理(写进AI程序中的道德编码)以及微观AI 伦理(将来具有道德推理和自我决策能力的机器人本身的伦理)。AI伦理共识指的是人们在这三个层面的核心价值与伦理准则所达成的共识。那么,我们能够期待人们就哪些AI伦理准则达成国际共识呢?

瑞士学者Anna Jobin等在2019年收集了全世界2019年之前发表的84份与AI伦理有关的文献。通过统计分析,Anna Jobin等人发现,这些文献对11个伦理原则(或价值)的认同度比较高。其中,排在第一位的是“透明”(Transparency),共有73份文件认可这一准则。排在第二位的是“正义与公平”(Justice and Fairness),共有68份文献赞成这一准则。排在第三和第四位的分别是“不伤害”(Non-maleficence)与“责任”(Responsibility),共有60份文献支持这两个准则。排在第五位的准则是“隐私”(Privacy),共有47份文献接受这一准则。排在第六至十一位的准则分别是仁爱(Beneficence)、自由与自主(Freedom and Autonomy)、信任(Trust)、可持续性(Sustainability)、尊严(Dignity)和团结(Solidarity),提及这些准则的文献分别有41、34、28、14、13、6份。(8)Jobin A, Lenca M, Vayena E, “Artificial intelligence: The global landscape of ethics guidelines”, Nature Machine Intelligence, no.1(2019),pp.389-399.这11个准则可以作为全球AI伦理准则的基础或核心选项。

Anna Jobin等人的论文没有统计两份重要的中文文献。一份是2018年天津“机器人与人工智能大会——雷克大会”发表的《人工智能创新发展道德伦理宣言》。该宣言提及的重要价值与原则包括尊严、人格权、人类解放、人的全面发展、全人类福祉、人类整体利益优先、诚实与信用、人道主义、和平等。另一份重要的中文文献是中国机器人伦理标准化前瞻委员会于2019年出版的《中国机器人伦理标准化前瞻》。该报告构建了一套关于机器人伦理的“中国优化共生设计方案”。该方案包括从低到高的三个理论层级:整体论意义的善、四个元价值与五个伦理目标。整体论意义的善指的是自然与文化的多元价值与共生秩序。四个元价值分别是多元(Pluralism)、自然(Nature)、正义(Justice)与繁荣(Well-doing)。五个伦理目标分别是人权(Human Rights)、责任(Accountability)、透明度(Transparency)、防范滥用(Awareness of misuse)与共生繁荣(Shared Flourishing)。《中国机器人伦理标准化前瞻》有两个特别突出的亮点,第一, “不再把人类中心主义作为自己伦理标准化体系的根本理论依据”,而是“尊重自然环境和自然物种的内在价值”,试图“发展一套去人类中心主义的伦理系统。” 第二,在强调机器人伦理主要是关于设计、生产和使用机器人的人员之伦理的同时,对机器人在未来能否成为道德行为体的问题持开放态度,“为尚不可预期的人工道德智能主体的自主能力增强预留了足够的伦理讨论空间。”(9)北京大学国家机器人标准化总体组:《中国机器人伦理标准化前瞻》,北京:北京大学出版社,2019年,第26、24、32、38页。因此,相比于欧盟的AI伦理体系,《中国机器人伦理标准化前瞻》的伦理视野更为宏大。

上述综合讨论AI伦理的中外文献,至少可以说,国际学术界在宏观AI伦理层面已经达成了许多共识;这些共识为国际层面的AI治理提供了必要的伦理基础,也为国际社会在未来如何扩大国际共识指明了方向。

四、如何寻求并强化AI伦理的全球共识

如果国际社会认识到了对AI技术实施全球治理的必要性与紧迫性,并且,某些国家已经对AI伦理的核心价值与基本原则达成了某些共识,那么,在全球层面寻求并扩大AI伦理共识就不仅是可能的,而且是有方法可寻的。限于篇幅,这里仅提出以下六点建议,作为人们进一步深入讨论这一问题的起点。

第一,分类建设,先易后难。AI技术包含各种不同的类型。国际社会可以进一步把AI伦理分解成不同的种类和部分,分别针对不同的AI技术寻求与该技术相适应的AI伦理。例如,《中国机器人伦理标准化前瞻》就针对护理机器人探讨和设计了护理机器人伦理的主要原则与规范。下一步,国际社会可以进一步探讨和寻求工业机器人、家居机器人等的伦理原则与规范。此外,国际社会可以首先在那些容易达成共识的领域(如商用AI技术)寻求共识,对那些比较难以达成共识的领域(如军用AI技术)的伦理问题则可以开展持续的讨论与对话。

第二,科学家主动介入,积极参与。科学家是研发AI技术的核心角色,应当主动介入AI伦理的国际建设,并推动政府和企业参与AI伦理的国际建设。

第三,跨国公司及时行动,率先垂范。跨国公司对AI技术的全球治理具有重要影响力,一个开放而健康的全球AI市场符合跨国公司的长远利益。因此,跨国公司应率先垂范,主动参与全球AI伦理的建设。

第四,各国政府合理引导,提供支持。在现有国际秩序下,民族国家仍然是国际事务的主导者。各国的政治家应当高瞻远瞩,积极承担起确保科技进步造福全人类的道义责任,引导和推动各国尽快实施AI伦理的全球构建计划。

第五,超越狭隘民族主义,创新全球制度。对于全球层面的挑战,只有在全球层面采取协调统一的行动才能加以应对;而全球层面的协调统一行动要成为现实,就必须要以相应的全球制度的创立为前提。因此,民族国家与联合国都应根据时代的需要,及时建立并强化相应的国际制度,通过全球制度创新来解决人类面临的诸多全球问题。

第六,拥抱世界主义理念,构建人类命运共同体。全球AI伦理建设面临的最大挑战仍然是狭隘的民族主义。目前,以民族国家为主体的全球制度导致人们以民族国家为单位相互竞争,甚至相互仇恨。为这种全球制度提供合理化证明的观念就是狭隘的民族主义。近代以来的许多悲剧(尤其是两次世界大战)都与狭隘的民族主义有关。医治狭隘民族主义的药方是世界主义理念。世界主义理念与我国传统的天下一家思想、世界大同理念是一脉相承的。吸收了中外世界主义精神遗产的人类命运共同体理念是建设全球AI伦理的最重要的价值基础。当今时代,我们必须要用实际行动把人类命运共同体这一理念落到实处。要做到这一点,我们就必须要首先培育和构建一种世界主义的全球公共政治文化。对于AI伦理的全球建设来说,这种世界主义的全球公共政治文化也是至关重要的。

(作者为广西大学马克思主义学院教授)

我们该如何应对人工智能对人类劳动的挑战?

何云峰

关于人工智能方面的研究,实际上文理科的对话太少。文理科的学者坐到一起来对话,共同思考这些问题,会有更多的共鸣。当今时代,人工智能的发展突飞猛进,被广泛地运用于各个领域。在这种情况下,人工智能对当今社会各个方面的影响必然非常巨大而深远,当然,对劳动的影响肯定也是很大的。有正面的积极影响,当然也存在消极影响和挑战。无论积极的影响还是消极的影响,都值得学界认真深入地加以探究。

实际上,大家对人工智能的悲观情绪和乐观情绪都有。说实话,我属于乐观派,我认为总体来讲人工智能的积极影响大于消极影响,因为事物具有两面性。从经济角度来看,人工智能对于人类劳动的解放、对人类追求自由的过程来说,确实有很多的帮助,这是不可否认的;但是,人工智能带来的挑战,也是非常明显的。那么应该怎么样看待这个挑战,我觉得可以好好地去思考。

就挑战来看,我通过中国知网进行中文文献检索,以“人工智能”作为关键词做初次文献检索,再用关键词“劳动”作为进阶检索,检索后发现这方面文章很少。真正关于人工智能的研究是2016、2017年以后,文献数量很明显地上升;到2020年文献量达到顶点;2021年也有很多,整体文献数量是不少的。从文献来看,人工智能的研究热潮主要是在最近几年逐渐形成的。已有的研究所涉及的学科比较多,主要包括自动化技术、人才学、劳动科学、宏观经济管理、可持续发展、经济建设和经济思想史、信息经济、邮政经济,等等。可以看出,研究的跨学科性还是十分明显的,文理科交融趋势也日益明显。所以,人工智能对人类劳动的影响,实际上已经变成跨学科问题了。从研究内容来看,高频关键词集中在几个主要领域,诸如人工智能、人工智能时代、劳动教育、劳动价值论、劳动就业、劳动收入分配等。但仔细研究发现,上述高频关键词涉及的文献量实际上并不是很大,比如直接谈人工智能对劳动的挑战或者积极影响的文献大概也就两百多篇。

从文献来看,我认为目前的研究还是有一些缺陷。大家讨论人工智能对劳动的挑战比较多,经济影响方面也有学者进行研究。从挑战的角度看,已有研究对挑战本身讨论得比较多,也比较深入地关注了人工智能对劳动有哪些不利的影响。但是,怎么来应对挑战?有价值的研究并不多。如何有效地应对人工智能给劳动带来的各类挑战?这个问题可能是最需要我们关心的。我个人认为,人工智能对人类劳动的影响,应该跟以前其他的生产力跨越式发展和科技的进步等类似,其影响都是一样的,都有双面性,关键是我们怎么来应对。总体上说,肯定是机遇大于挑战,积极作用和消极作用共存。消极作用没法避免,任何科技都是这样,关键是怎么来有效地应对挑战,这是我们要研究的主要话题之一。

对此,有三点非常值得关注。第一,人工智能对人类劳动具有多重挑战,挑战是客观存在的;第二,要应对这个挑战,最好的方式就是变革,全面而系统的变革是应对这种挑战的唯一有效选择;第三,无论做什么样的选择,必须要提供相应的理论依据,那就是我们要重新反思劳动价值理论。

应该反复强调人工智能对劳动究竟有哪些挑战。人工智能大量运用对就业的挑战、就业机制的影响,大家都关注到了。实际上,这种影响远远超乎我们的预期,例如人工智能大量运用会对就业规模产生巨大的影响。最主要的是岗位被取代后,人类怎么办?日本学者研究发现,大概60%的现有工作,是可以用机器人来取代的,现在没有被取代可能是因为时机还没有成熟。实际上好多工作都是可以被机器人取代的,甚至包括教师的工作,将来都有可能被取代。我们原来普遍认为教师是“稳坐钓鱼台”的工作,教书育人的任务不会被机器所取代。但是将来还是有可能的,比如知识传授这一部分教师工作很有可能被取代。当然,这种取代并不是我们悲观的理由,关键是看我们如何应对。其次,人工智能普遍运用对收入分配的影响是很大的。人工智能相关领域的就业,肯定都是高收入,而在其他领域就业的,则极有可能收入很低。也就是说,它很可能导致严重的两极分化。劳动本身决定了工资收入的巨大差距。最后,人工智能对就业形态也有很大影响。将来很可能会有一些人只能从事“低端”的工作,而有些人就从事与人工智能相关的所谓的“高端”的工作。高度专业化的工作需要长时间的专门化准备,而其他的“普通工作”则不需要长时间的训练。这样就会形成两种截然不同的劳动形态。此外,人工智能的大量运用还会对劳动过程、劳动关系等多个方面产生巨大的影响。事实上,当今时代的人们对这些挑战都已经有了一些感知,所以危机感自然而然会产生出来。

既然人工智能会对劳动提出诸多挑战,那么应该如何应对呢?我觉得最主要的是要变革。用变革迎接挑战,就会把挑战转化为机遇。我认为,面对人工智能给人类劳动提出的诸多挑战,人类必须实施三大变革:第一是人类的自我变革。我们人类走到了今天,可能很多观念都要改变。比如说,我们的职业观念要发生变化,原来我们都希望找一个稳定的工作,当作一辈子的“职业”,然后好像有了“职业”,我们的人生就完美了。那么将来这种职业观念可能要发生变化,一辈子可能不止有一个职业,很可能要跨职业。这个可能符合马克思关于分工的很多批判,人要全面发展,多职业可能恰恰促进了我们的全面发展。还有一个是对就业观念的影响,我们过去找工作要找个稳定的、不变的,这个观念也会受到影响。还有对企业家的利润观、财富观也会有影响,甚至我们的学习观也会受到影响。现在我们中国的大学生有一个学习观,其基本的观念就是从大学拿个文凭,然后靠这个文凭混一辈子,拿不到文凭就好像没得救了,就感到“人生绝望”,将来可能这种现象会完全改变,包括学习观在内的很多观念都会转变。对人类自身的这一系列观念而言,变革肯定是要及时地跟上时代和技术的发展。如果人类自身的观念跟不上的话,人工智能对劳动的挑战,很有可能会让我们无法适应。第二是教育系统的变革,即学生的学习观念、学习理念一定要变化。现在的大学课堂往往还是以满堂灌式地传输知识为主,这样的方式难以适应未来的大学教育。未来的大学学习,应该让学生学会学习,这是高等教育的第一要务。让学生将来能够自主地学习,不是老师把知识系统地传授给他们,把知识透彻地讲给他们听。将来老师的教育理念也要变,要把学生“教”到学会自学,而不是仅仅致力于把知识讲透了,这才是真正的厉害。大学向终身教育的转型,可能会是一个很重要的变革趋势。现在我们的许多大学,比较常见的还是那一种旧式学历制的教育。将来的终身教育可能变成没有学制的概念,更多的是学分制的概念。目前,西方的完全学分制已经可以做到这一点。但是现在我们的许多大学,基本上还不能完全跟上这个变革的步伐。每个人在大学的学习能力是不一样的,他可以按照他自己的学习能力、学习动力、学习兴趣,根据自己的经济状况等具体情况独立地进行自我规划。一个人既可以三年把博士读完,也可以五年把博士读完,教育的灵活性和可选择性应该提高。第三是社会治理系统的变革。随着劳动力市场治理能力的强化,我们发现劳动力市场治理在过去不是一个很重要的活动,也不是社会治理的范畴,但将来可能是一个很重要的治理范畴。所以,现在随着社会关系的复杂化,特别是劳资关系的复杂化,实际上劳动力市场的治理已经有一些问题了,包括过去讲的所谓“996”“血汗工厂”等现象,实际上正是劳动力市场治理没有到位、出现问题的表现。过去我们将医疗、教育视为“第一民生”,将来应将劳动就业上升为“第一民生”。今后还要更加重视劳动幸福保障。

上述三大变革,将来可能会成为应对人工智能对劳动挑战的当务之急。理论是先导,任何变革都需要理论的指导,没有理论指导的变革可能只是一个应急性的举措。要全面地、系统地应对变革、应对挑战。科学的理论怎么样进一步修订?我觉得需要马克思的劳动价值理论进行指导,强调活劳动创造价值。怎么理解这个“活劳动”?我的想法是将来人工智能的、自动化的、智能化的机器人,可能就是一种替代性的劳动,它跟我们现在算法化的、工具性的人工智能不一样,将来可能会有替代性的人工智能出现——相对于人的“活劳动”,这种替代性的人工智能只不过是对劳动的另外一种理解方式。比如,现在的演员在演危险性动作时不会自己去演,会找个替身,那么替身性的劳动工作量会算在主演演员身上,不会算在那个替身的身上,将来替代性的人工智能也是这样。这就算“活劳动”的价值,这个价值是归资本家所有,还是归我所有,或者是归社会所有,相关的讨论应该及时跟上。我们把替代性的劳动变成一种“活劳动”,并没有违背“活劳动创造价值”这个基本原理,但是对“活劳动”本身要重新加以界定。因此,理论要及时关注现实,才能应对各种挑战。

总之,人工智能对人类的挑战是多重的,人类必须进行自我变革、教育系统变革、社会治理系统变革,还需要理论的变革、理论的指导,只有这样,人类才能够从容地走向未来。

(作者为上海师范大学知识与价值科学研究所教授、博士研究生导师)

生产工艺学批判:人工智能的理论阐释与实践观照

刘方喜

人工智能(Artificial Intelligence,简称AI)的“理论阐释与实践观照”非常必要和重要,总体来看,AI技术研发专家对此不太关注,而人文社会科学研究者却必须重视,所以,我这几年陆陆续续发表十几篇有关AI方面的文章,大致形成了一种“理论阐释与实践关照”思路,即“生产工艺学批判”,这种思路重视AI研究科学性与批判性的统一。

我研究AI的方法涉及三种“学”或英文所谓“-ology”,一是工艺学Technology,二是本体学或本体论Ontology,三是社会学Sociology。第一,所谓“工艺学”是马克思政治经济学中的一个重要概念,以往国内外对马克思的研究都没有足够重视这个概念及方法,近些年来开始有所关注,而我结合物联网和AI等当代新技术,对马克思工艺学理论作了较为系统的研究和重构。第二,本本学或本体论主要研究人与物的关系。第三,与此相应的,社会学主要研究人与人的关系——在AI领域涉及的就是人脑智能与AI机器智能之间的关系等。所谓“生产工艺学批判”就是把本体论与社会学结合在一起的研究思路。

首先,对AI的理论阐释关乎本体论Ontology,在这方面,“如何提问”往往决定着对AI的认知方向。现在比较通行的提问是:“智能”是什么?或什么是“智能”?顺着这样的提问方式追索下去,智能就可能成为一种独立于一切物质的存在,它可以在不同物质形态中存在,既可以存在于人脑这种生物性的物质中,也可以存在于机器即计算机这种物理性或非生物性的物质中(即AI),最终还可以脱离计算机进而脱离一切物质而存在——美国AI理论家库兹韦尔对奇点来临后的超级AI的设想就是如此,这显然会引发诸多争议。总体来说,存在于不同物质形态中的智能,显然存在相通之处,所以AI机器神经元网络可以模拟人脑神经元系统;但是,如果认为智能不可能脱离一切物质而存在,那么,存在于不同物质形态中的智能就会有所不同:人脑生物性智能就存在机器物理性智能即AI所不可模拟的功能,即图灵所谓的不可计算的部分。而动态地看,AI的不断发展又必然会使不可模拟、不可计算的部分趋于缩小,但最终能否缩小为零从而导致所谓奇点来临,显然在计算机科学家内部也存在争议。

当然,还可以换一种提问方式,即不问What,而问How,即:智能是怎样生产的?马克思指出,考察物质生产,既可以问“生产什么”——这关乎产品;也可以问“怎样生产”——这关乎生产的工艺或工具,是一种生产工艺学的提问方式。这同样可以运用于对智能的考察,而智能“怎样生产”就可以具体转化为智能的“生产工具有哪些”。在这方面,说人脑及其神经元系统是智能的一种生产工具,没有太多争议,说当今AI计算机这种机器及其人工神经网络也成为智能的一种新的生产工具,应该也没有太多争议。相关讨论往往没有特别强调的是:自然语言系统也是智能的一种基本的生产工具,而语言又分口语与文字,从与人的身体的关系看,口语像人脑一样离不开人的身体而具有生物性,而文字则是一种存在于人的身体之外的因而是非生物性的智能生产工具。作为两种智能生产工具,AI机器系统与文字系统都存在于人的身体之外而具有非生物性,在这方面是相通的。因此,撇开口语和其他符号系统比如各类科学与艺术符号系统等不论,迄今为止仅存在3种基本的智能生产工具系统:人脑神经元系统、文字系统、机器系统——这种生产工艺学的理论阐释和考察,可以避免有关当今AI的讨论落入神秘主义的陷阱而争论不休,有助于既不看轻、也不夸大AI的价值,从而对AI的价值及其划时代意义有科学的定位:作为智能生产工具系统,具有生物性的人脑神经元系统是漫长的自然进化史的产物,文字系统是人在自己身体之外创造出的一种非生物性的智能生产工具系统,可以说是人类文化进化史的产物,而当今的AI系统则是人在自己身体之外创造出的又一全新的非生物性的智能生产工具系统。我初步把这三大智能生产工具系统的关系概括为:机不尽言、言不尽意,即AI机器不能充分表达自然语言所表达的意义(与图灵所谓的“不可计算性”有关),语言不能充分表达存在于人脑或人的心理中的意义(即古人所谓的“言不尽意”)。

从研发现状看,“自然语言识别”固然是AI研发的一种基本路径,但在整体上,研发界尚未将自然语言系统尤其是文字系统作为一种基本的智能生产工具系统来看待,当今AI研发所模拟的对象主要是人脑神经元系统,而不是文字系统。因此,将文字系统作为一种基本的智能生产工具系统并加以深入探讨,对于AI研发的进一步发展也有一定启示。

如果说理论上的本体论阐释主要关乎AI“怎样生产”或者使用什么样的智能生产工具进行生产的话,那么,“实践观照”或社会学的考察则主要关注AI“怎样应用”。当然,AI怎样生产的“社会方式”又决定着AI“怎样应用”,比如方式和方向,进而对人产生影响——涉及的一个基本并且也是争论不休的问题:AI作为一种机器智能能否“替代”人的大脑的生物性智能。在这方面,我主要在现代机器两次革命的历史脉络中展开考察。马克思的生产工艺学批判考察的是作为物质生产现代化工具的机器体系,涉及的是现代机器第一次革命即动能自动化革命,传统非自动化的生产工具只是“传导”人的体能,而动能自动化机器则可以“替代”人的体能,这种“替代”恰恰意味着把人的物质生产力从人身或生物性限制中解放出来,意味着人可以不再从事那些由“物”即机器替人从事的活动。但在资本框架下,动能自动化机器对人的体能的替代所导致的后果是:越来越多的蓝领工人面临失业进而失去收入的威胁——而马克思强调:这种威胁的根源不在自动运转的“机器”而在自行增殖的“资本”——不能认清这一点,使英国曾出现过工人打砸机器的“鲁德运动”,与此相关的对自动机器的认知,后来被概括为“鲁德主义”或“鲁德谬误”。当前,AI正在引发现代机器第二次革命即智能自动化革命,动能自动化机器以及传统的生产工具也是人的智能的物化,但只是“传导”人的智能,而AI机器则可以“替代”人的智能。尽管也存在争议,比如一些经济学家认为AI在消灭一些工作的同时也在创造新的工作,但是从发展趋势看。AI将使越来越多的白领工人(包括AI研发者甚至科学家等在内)面临失业进而失去收入的威胁,越来越多的人将被抛入赫拉利所谓的越来越庞大的“无用阶级”队伍。如果你认为这些困境是由越来越发达、智能自动化程度越来越高的AI机器本身造成的,你所犯的就是“鲁德谬误”;由好莱坞科幻大片及各类商业技术噱头所渲染的智能机器人威胁乃至消灭人类的论调,体现的不过是一种更加精致的“鲁德主义”或“鲁德谬误”而已。

在当今全球范围内流行的有关AI社会影响的认知中,存在乐观主义与悲观主义或乌托邦主义与反乌托邦主义的二元对立——运用马克思生产工艺学批判,则可以超越这种二元对立:AI机器当然可以替代——即使现在还是部分地替代——人的智能,但这种“替代”也恰恰意味着把人的精神生产力或智能力量,从人身或生物性限制中解放出来,意味着人可以不再从事那些由“物”即机器替人从事的智能活动——前提是要扬弃“资本”。在这方面有一种朴素的想法是:自动机器可以替人从事体力和智力活动了,人还能干啥?在马克思看来,在由动能自动化机器替人从事的体力活动中,人的体力支出是不自由的,而在比如体育等体力支出活动中,人是自由的,并会由体力的自由支出或发挥而产生愉悦感。同样,在AI机器所能替人从事的智力活动中,人的智力支出也是不自由的,而在比如文艺等智力活动中,人则是自由的,并会由智力的自由支出或发挥而获得愉悦感。

无论从哪种视角或维度来看,现代机器的两次自动化革命在人类文明发展史上都具有划时代的重大意义:动能自动化机器替代人的体力,AI自动化机器替代人的智力。普通大众和许多AI研究者往往不加分析地认为这种“替代”对于人来说只能是负面的、消极的,澄清这一问题的关键是:人的体力与智力对人本身意味着什么。在马克思看来,人的体力与智力也是人的本质所在,人的体力与智力的自由发挥,就意味着人的本质(或所谓本质力量)的自由实现——而前提是:人要以自身体力、智力的发挥为“目的”。在维持生存的活动中,人的体力、智力的发挥只是“手段”,因而作为人的本质力量的体力、智力不能得到自由发挥,人的本质也就不能得到自由实现——AI自动化机器对人的智力的“替代”,恰恰意味着把人的智力的发挥从以本身为手段的活动(雇佣性的智力劳动活动等)中解放出来。只是在资本框架下,这种“解放”才转化为“威胁”,即威胁出卖智力而获得维持生存收入的白领工人的工作;反过来说,将这种“威胁”转化为“解放”的前提是扬弃“资本”,而一旦扬弃资本之后,人不是不再发挥智力,或者说无处可发挥智力,而恰恰是在自由王国中自由地发挥智力。这种理念其实一点儿也不抽象,我经常举的经验性极强的例子是:你给老板写报表可能感觉很痛苦,因为你的这种智力支出活动是手段;而你玩游戏也要支出智力,却并不感觉痛苦,因为这种智力支出活动本身是目的,你恰恰会由智力的支出本身而获得愉悦。微软AI小冰的诗写得再好,会影响你写诗比如也许并不高明的爱情诗的乐趣吗?阿尔法狗很厉害,可以打败人类围棋高手,会影响你作为一个普通围棋爱好者下围棋的乐趣吗?显然不会,除非你把AI机器当成“竞争对手”——但为什么要这样做?汽车作为一种动能自动化机器比人跑得快,人会把汽车当成“竞赛对手”吗?与此相关,教育领域一个流行的“鸡汤”口号是:在AI时代,你要让你的孩子更加努力,否则就会被AI淘汰——但是对于绝大多数孩子来说,即使再努力,尤其在特定的某个领域比如下围棋等,能够在与AI机器竞争中获胜吗?如果教育不能提升智力的话,那么,就接受智能芯片植入大脑吧——但这与在体育竞赛中为提升体能而服用兴奋剂有何区别?一个简单的道理是:不择手段地提升人的体能、智能,并不符合人性的需要和目的,使人固有的潜在的体能、智能自由充分发挥出来,才是符合人性的需要和目的——当今许多围绕AI的流行认知或说辞,往往忽视了这个简单的道理。

总之,无论在普通大众层面还是在专业精英层面,当前全球范围内有关AI的认知皆存在诸多混乱。总体看,一方面,把与AI相关的负面、消极影响完全归咎于AI机器本身,片面地关注技术本身,而忽视操控、垄断AI技术的大资本;另一方面,智能机器人能否发展到超越人类物种进而消灭人类物种这种尚难确定的远期问题,受到了过多的关注,而在资本框架下AI将造成大量失业等更现实的中期问题,以及把AI武器化或把武器智能自动化等更现实、更迫切的威胁,反而较少被关注。这种认知状况的意识形态后果是:“资本”不再是关注和斗争的焦点,当全球大众只忧心忡忡于未来智能机器人威胁、消灭人类时,资本巨头们就可以安全地闷声发大财了。运用马克思生产工艺学批判,在理论阐释上有助于克服关于AI认知的神秘主义等倾向,在实践观照上则有助于克服“鲁德主义”等倾向,最终有助于有效解决失业等中期社会问题,增强人类团结,为应对AI的远期挑战做好准备。

(作者为中国社会科学院文学研究所研究员)

如何从历史唯物主义来思考数字劳动——数字资本主义下的数字劳动批判研究

蓝 江

数字技术、人工智能技术面临的主要问题,其实不是人是否会被技术所取代的问题,或者说由此而产生的我们在职业生涯中会不会遭遇下岗的问题。其实,对于这些问题的讨论,需要我们对数字劳动的进一步思考,或者说,从更复杂的角度分析,这不能将问题简化为机器或人工智能是否取代人,因为在这些问题背后,最根本是如何重新理解数字劳动的形式。

数字劳动究竟是什么?在生活中表现得更为直接一点,比如原来工厂里面那种工作被称作劳动,也是亚当·斯密、大卫·李嘉图甚至马克思的论述中的劳动,这种劳动是脱离了具体生产活动的抽象劳动,这种抽象劳动形成的价值是衡量生产和交换的根本形式。然而,在今天的数字技术的背景下,劳动是否还是简单抽象劳动的形式?因为数字劳动形式变了。以滴滴为例。有一次我从南大仙林校区打滴滴到机场,滴滴司机很快就来了,我十分好奇地问司机:“你怎么反应这么快,你究竟怎样接到我这一单的?”他十分痛快,说开滴滴的司机,在平台这里都有一个积分,接到订单并不是按照手速快而抢到的,而是平台按照积分的高低,给一个区域内的司机派单,比方说,成这一单是从仙林到南京禄口机场,属于优质单,平台会按照积分顺序分配给各个司机,而他在那个时间段,在仙林地区的分最高,自然就把我这一单派给他了。我又问:“为什么不去机场接?机场那边都是优质单,机场离南京市区这么远,随便可以接到一个很远的单。”但他说不行,机场那边全部都是250分以上的人,没达到那个分根本就抢不到订单。我又问:“你的积分怎么算呢?”司机说:“比如我接你这一单可以拿0.3分,但我要拒了你的单,我要扣5分,我要做到十几个你这个单,才能把我扣的分慢慢地挣回来。”这个对司机来说是不可接受的,或者为了挣回这个分,滴滴司机就不得不跑一些“差单”,有些单可能没什么钱挣,但是会挣得平台的分数,比如周五晚高峰时期的闹市区,在以往这样的单是没有的士司机愿意跑的,因为堵车且只有起步价,乘客给的钱还抵不上堵车耗费的油钱。但是在今天可以打滴滴,对于一些想挣得高分,去跑优质单的司机来说,虽然这种“差单”挣的钱没有多少,甚至可能是亏钱,但可以拿额外的分数,可以帮助他尽快接一些优质单。如果不能接到优质单,意味着这些司机只能在中低收入上徘徊,而想取得质的突破,必须依赖少挣钱、多挣分的方式来让自己的等级上升,从而跻身长期接待优质单司机的行列。

在与司机聊天的时候,我突然意识到这个问题不仅仅是挣分还是挣钱的问题,而是一个平台通过算法来控制每一个加入平台的司机和乘客的问题,每一个乘客都在不知情的情况下与特定分数的司机匹配在一起。其实,不仅是滴滴,包括外卖骑手也有同样的算法,那么在这里头发生了一些什么事情?原来我从新街口打车到鼓楼,高峰时段是根本不可能有的士停下来的,这种情况下是什么“迫使”这些司机宁愿亏钱,或只赚基本油费还要忍受堵车的低速慢慢走,仍然愿意接这种亏本单?是什么促成了这个行为?显然,从传统的政治经济学和单纯的市场调节的方式来理解这些行为是存在问题的,因为在算法控制的世界里,货币或收入已经不再是调节市场行为的唯一因素,在以货币为中心的市场调节之下,多了一重调节机制,即以数据为中心的算法调节。

在这个基础上,我们可以重新思考数字劳动的可能性,换言之,原来被称为劳动的东西,之前是由货币决定的,今天却被算法所控制,导致了以往仅仅从价值角度对劳动设置的定义发生了转变,因此,需要在今天的数字环境中重新审视劳动的形式。今天的劳动属于新的规则下的一个大平台,在这个规则下面最重要的甚至不是我们在市场经济或者市民社会中的货币,货币是属于市民社会的评价和度量的手段,但是在数字平台上有了新的衡量手段,它甚至成为货币手段的根基,是今天用来衡量数字劳动的一个很重要的指标,包括去年外卖骑手事件中提到的数字劳动问题。外卖骑手之所以违反交通规则,他不是为了钱,而是为了挣分或者说避免扣分,因为扣分对他来说是比扣钱更严重的事情。

今天,是人管机器还是机器管人,这其实对平台的算法控制是非常次要的问题,关键是今天形成了一个新的算法控制的社会,即所有人的生命必须要在这个算法平台中重新展开。在市场经济时代,即在那个没有被数字技术中介统治的时代,我们仍然以个体的生命存在着,尽管每一个个体的生命是不一样的,但至少在表面上肉体还是个人性的,我们仍然以个体性的肉体存在参与社会交换的整个过程。但是在数字时代,这种肉身化的个体性已经完全不一样了,因为我们存在的价值不再是那具肉体,不再是不可分割的最后的个体性,个体成为被数据所转化,被算法所计算的数据分体(dividual),这些数据分体只有在算法进行数据分析并获得对应的数值时才能具有价值。例如,高校教师对一个学校有没有价值,并不取决于其读过多少书,深入思考过多少问题,而是取决于发了多少文章,拿了多少课题经费,得了什么级别的奖励等,这当然也属于算法系统。所以,我认为,对于高校教师来说,现在已经不再是自己想研究什么就去研究什么的阶段,一名教师从事的研究,必须在高校平台算法中被重新评价,只有在这个算法中获得对应的值,这名教师才是真正有价值的存在。例如一位老师有国家重大课题,有重要的头衔和称号,自然在高校的算法系统中能取得优越的地位;同样,对于院系和专业来说,其价值也取决于拥有多少这样的人才,培育了多少优秀的学生(优不优秀也是由平台算法所决定的),有多大的社会贡献等。所有这一切都可以转换为数据和算法,无论对于个体还是集体,其价值都是由数据化的分体决定的,他们成了这套算法中的一个值,而这个值决定了每一个数据对应的个体或集体的地位和价值,所以,这才是我们今天必须面对的主要问题。

另外,现在的网络平台给每个员工正规发全额工资的是非常少的,像起点网,甚至B站、youtube、推特等,他们的营业收入绝对不是来自后台的营收,只有技术维护人员和营销人员是长期发工资的,那么它们主要的收入来源在哪里?我从网络平台看上传的视频,然而做视频的人从平台根本得不到任何收入,他们的兴趣在于制作的视频又被点赞了,但制作视频的确是一种劳动,这个劳动的价值仅仅是有多少人在关注。

现在我们的劳动被数字平台和算法结构重新架构了,这种架构意味着现实的社会必须按照这个架构重新分配和布局,这就是今天需要去重新思考的劳动问题核心所在。为什么需要思考数据和算法对我们日常生活的重新架构?可以说,人类最初的活动是没有任何区分的,人的活动就是人的活动,饮食是活动,狩猎也是活动,但是,是什么把劳动和休闲区分开来?区分标准是什么?比如一个孩子喜欢自己动手做弓箭,他可以自己沉浸其中,几乎一天的时间都沉浸在砍竹子、打磨弓身、搓弦等“工作”中,实际上这对他是一种娱乐,但从另外角度来看,这当然也是一种劳动。在文明社会之前,人的活动没有被分成娱乐和生产劳动两个部分,只有在进入一定程度的文明社会之后,甚至可以说直至资本主义社会以后,一部分活动符合资本的创造价值的要求,并在以货币为中心的价值体系下能够衡量这种价值,这样的人类活动才被称为劳动。换句话说,进入数字时代,我们面对的问题,资本主义社会定义劳动的方式是以价值为根基,价值是衡量所有的劳动的基本尺度,如果一项活动能创造价值,那么该活动即劳动,反之,那些不能创造价值的活动就是消费,就是娱乐。

但是,在今天数字平台上,还有另外一种区分方式——原来不视为劳动的东西,可能今天也被叫作劳动。因为人工智能系统有个很重要的基础就是收集与分析数据,人工智能下面是框架,框架下面是数据,依靠大量的机器学习、深度学习和边缘计算,才能够让人工智能存活下去,那么这个人工智能数据从哪里来呢?事实上,数据是我们每个人的活动创造出来的,是每个人生活中所有的表现。现在讲的人工智能,不仅仅是机器人的问题,是我们跟周围环境的互动和关系化的问题,它们被数据化,然后被机器学习的一些算法所掌握,最终才能发展成所谓的智能体。我们对环境的任何反应都会变成人工智能的一种对应关系,而不是简单地说人和人工智能是彼此独立的,人工智能在今天和我们已经进入一种共生关系之中,那么我们每次活动实际上是在支持人工智能的发展,其实目的也在这里。现在需要从今天的现实生活、我们正在经历的一切重新来思考劳动是什么,不仅仅白领坐在办公室写文案才叫劳动,今天的劳动变成了在平台和算法下的劳动。

(作者为南京大学哲学系教授、博士研究生导师)

算法的边界

吴 静

数字与人文研究是我近年来的主要研究方向。今天,我们讨论一下算法的边界问题,如何去看算法在社会组织层面产生的问题,包括劳动的规则问题。我先分享一下这两天看到的一则新闻和自己的一个体验。我平时除了开车以外,还比较喜欢用打车软件,但是这两天我发现用软件打车特别困难,叫车的时间特别长,在平台叫车后它就会给你选择,你可以选择同时叫几种车,有特惠快车、优享、出租车。一般情况下,我不赶时间的话会选一个快车,但有的时候你会发现,叫了以后很长时间到不了,然后你就会把优享、专车、出租车都勾上,以确定在最短的时间内叫上车,经常价高的就被选上了。

这两天我看到一则关于亚马逊(Amazon)的报道,跟它有合作关系的一个63岁的代理司机接到平台自动算法给他发的一封信,通知他被解雇了。原因就是某一次,平台根据算法在天亮之前派了一个送件给他,让他送到某一个大厦去,但是他去了以后发现这个大厦在这个时间点之前根本就不开门,几经折腾联系到大厦管理人员,说让他送到Amazon的快递柜里去;他也去了,结果快递柜故障怎么也打不开,导致延时,因此他苦心维持的积分瞬间被扣掉了很多,于是他就被解雇了。这些事件展现了一个事实,今天算法凌驾在整个社会之上并成了另外一种凝视的体系。我要强调的是:第一,我不反对人工智能,第二个我不反对算法。但我想问的是,我们都知道算法在整个社会生活层面构筑起新的评价标准,大家有没有想过,为什么从组织、集体到个人依旧会愿意使用今天所有这一切智能软件?或者说就像是股市的原则一样,用自愿的原则使自己加入这个体系。

在实际生活中,我们可能都会有这样的操作经历,比如说下载一个APP,然后注册,点了以后一定要你勾选同意原则,不同意就没有办法进入下一步,这个时候你基本不会细看的,直接就会勾选一个同意,然后才可以正常使用。仔细想想,发现实际上我们把自己主动地交给算法,但是为什么会是这个样子?算法技术又是以什么样的方式进入我们的生活当中?我想无非是如下两点:第一是利益,第二是方便、便捷。便捷性不用展开讲,只要分析一下利益。今天,大量的APP搞各种营销活动,比如瑞幸咖啡、滴滴打车、美团等在最初推广期间,全部使用补贴的方式,包括不挣钱的高积分派工模式,如此采用高补贴的方式,可以让大量的服务提供者自愿进入,在这个过程当中大家都是在利益和便捷性原则的驱动下,自愿进入这个系统当中。难道这就是算法真正的目的吗?我们今天谈到算法如何的时候,我们要去了解算法,知道算法要做什么,算法是如何做到这一切,而算法对我们的生活到底会有一个什么样的长远影响。我觉得这个不是从现象层面来考虑,算法跟我们日常处理方式的最基本原则有所不同,算法把所有的问题切割成一个个项目,让所有事情都变得环节化。在这种环节化当中,它就用可计算性的原则来对每一个环节精确量化,这也就是斯蒂格勒在他的《技术和时间》中提到的确定性原则。而确定性原则最基本的因素就是可计算性,也就是说算法实际上通过这样的方式凌驾于生活之上,实际上借用所有问题的可计算性进入生活当中。从本质而言,技术性实际上正是世界的确定性维度,作为现代性逻辑后果之一的技术话语的优越地位,使得人本主义传统中的非确定性维度被忽视或简化为非理性。而这种简单替换正是今天的大数据时代的统治逻辑。所以我们会发现那个被解雇的工人所遭遇的问题不在算法考虑范围之内,算法只考虑你在某一个时间有没有把我要求你送的东西送到位,算法设计者没有考虑任何弹性。因为,现在的定位、计时你都可以看得到。真正的算法只是一个框架,算法借助数据来完成事情,但是我们会发现数据算法语言本身和自然语言有类似性,它实际上是符号系统,但是这种符号系统都依赖于符码能指和所指之间的关联性。但问题是在自然语言当中,对于关联性的这种追问,对于能指的霸权,已经在语言学、文化研究、人类学当中得到重视。但在算法语言当中,对于能指的这种追问却远远没有进行,因为我们没有对算法进行批判性的反思,我们实际上还停留在问题的表面即人被算法困在系统里。但是我们要追问算法要实现的是什么,这一点值得重视。

技术不是在生活之外添加了一个新的维度,技术真正所要做的是改变世界,甚至是重构我们存在和发问的方式。最近有一部很火的科幻片《爱、死亡与机器人》,在这个故事当中,技术所带来的改变是全方位的,甚至我们今天讲的伦理、存在,所有的这些问题在新技术的冲击之下全面被改写。今天算法所要做的是用利益换规则,它要换的是对人类世界进行重构的规则方式。当我们为了便捷性,为了利益看都不看就去勾选同意的时候,实际上我们已经把规则的决定权让给了算法,当技术以“科技改善生活”作为口号和愿景不断进入生活,以至于在某些时候从辅助的工具中介变成了生活选择本身的时候,生活面临着被数字化再现的现实。而数字化的标准评价体系是否合理?这是需要重点注意的一点。不能因为利益和便捷而让渡我们对这些问题的思考。

今天看来,算法的目的实际上是要对人类行为作出预测,而这种预测背后是利润的问题,那么这种预测本身实际上是在铆定选择的权利,于是算法造就了一个意义上的选择,我自己把它叫作“选择上的父爱主义”。它代替人来做选择,但这里面就会提出另外一个问题,人类的行为本身是不是能够完全被刚性的算法所测量,或者说所预测和衡量。我个人觉得是不可能的,但实际上它制造了一重边界,这种边界就是数字化,在数据算法的表现方式之外,其他方式的不可靠性。算法的预测方式是线性逻辑加相关性推测,它去除了所有情境化的因素。算法的运行规则也同样决定了数据化主体形象无法完成对真实主体的完整映射,而是排除了属人的柔性属性。算法的运行规则来自形式逻辑,输入的数据按照形式逻辑的分析、计算得出最终的信息,但是社会生活并不单纯只有形式逻辑的一面,主体也并不会时时刻刻按照理性逻辑行事,理性逻辑不是主体的全部,也不可能满足社会生活的全部需要。今天所有以数字算法为基础的东西被当作客观的、科学的,所有不能够数字化的东西被斥为边缘,在这个当中是不存在外部性的,不存在他者。所以算法数字化本身变成一个话语,甚至变成一个神话。前面讲到的数据鸿沟,只能使用现金支付的老人也好,被数据化凝固的性别现象也好,我们会发现数字化本身在创造一种神话。神话的意义在于,除此之外,别无话语。于是,数字化就构筑了今天我们感知世界的唯一的思考方式,或者说它即将成为我们感知世界的一个方式。

今天,尤其在我们可能要全面进入智能化的时候,我觉得重提人本主义十分重要。在所有那些属于人的经验当中,偶然的、非数字化的、柔性的边界是不是能够被算法的刚性全部卡住?在批判性面对数据科学时我们必须追问三个问题:第一,由谁来做?我们今天看到的技术权威,比如有一个调查显示,在硅谷的职业性别构成中男女性别的比例差异远远高于其他行业。而在硅谷之外,比如说人力资源、前台、市场等这些方面可能更多地吸纳女性职员,那么核心技术岗位则以男性为主,所以实际上算法是由特定的人群来构建的。第二,为了谁?算法要构筑什么样新的规则,它是一个效率优先的规则。但效率优先是不是社会唯一的取向?第三,体现谁的利益?我觉得这三个问题是我们在批判性地面对数据世界的时候一定要把握住的问题。今天人文学者需要为此发声,但是我觉得那些做技术的学者,那些实务操作人员更需要面对这个问题。因为在这个意义上来讲,在整个算法的建构过程中,数据世界实际上是一个独立的封闭空间,它打破了象征界需要不断地向实在界溯回这样一种动态反思,从而构筑起数字的全部霸权可能。那么从这个意义上来讲,它实际上是齐泽克的“逆事件”,因为真实已经被用数据来衡量,真实本身跟人的体验无关,只跟数据的捕获和问题式有关。数据重构的是对真实的标准性的一个判断。在一个由数据和算法重构的世界里,如何来把握自身,或者说把握数据和真实的距离,是今后必须思考和面对的现实问题。

(作者为南京师范大学公共管理学院教授、博士研究生导师)

反思司法人工智能

郑 曦

为什么讨论今天的这个话题?很多人觉得,所谓司法,无论刑事诉讼或者民事诉讼,似乎跟自己的距离都很远,仿佛自己做个良民、不干坏事,司法就与自己无关了。然而沈家本先生有言,“刑诉律不善,虽良民亦罹其害”。每个人都可能在错误的时间出现在错误的地点,从而与司法发生关系。倘若在此种情况下,有权定罪量刑甚至剥夺生命的不是作为法官的人,而是作为法官的机器,那么会带来什么样的后果呢?

人工智能运用于司法,从某种程度上来说是必然之事,因为人工智能在社会生活各个方面的运用已经是一个不可逆转的时代潮流,司法本身是社会生活的一部分,它显然不能脱离这种时代潮流。各个法院、检察院都面临着案多人少的问题,先看一个数据,2018年全国各级地方人民法院和专门人民法院受理的案件数已经达到2800万件,大家可以猜想每一位法官大概每年要办理多少案件。在这种情况下,高层的想法是通过人工智能等技术的引入来提高效率,因此当前人工智能的运用在司法领域已很常见。比如上海高级人民法院在科大讯飞协助下开发的206人工智能辅助办案系统,就有量刑辅助、类案推送、证据校验等功能。而在国外,人工智能在司法领域的运用也不少见。2016年欧洲有一个报告称,其调查的四十多个国家的司法系统中都在一定程度上运用了人工智能技术,只不过运用的程度有所不同。美国几年前有一个著名的案件,叫卢米斯诉威斯康星州案,此案中的量刑裁判是依据一个叫COMPAS的人工智能工具所做的被告人社会危险性评估报告,该案的被告人就认为由于人工智能算法不公开,他的宪法性权利——对质权没有能够得到保障,尽管在这个案件中他最终败诉,但他提出的问题还是引发了激烈的争论。

现在运用于司法的人工智能面临着一些问题。第一个问题是法律人与技术之间的隔绝关系。搞法律的不懂技术,搞技术的不懂法律,这样一来就可能出现两套话语体系,甚至是“鸡同鸭讲”,使得运用于司法的人工智能技术总有种抓不住点的感觉。第二个问题是对人工智能的研究存在一些误区。有的人已经在研究人工智能的主体地位,甚至怎么把人工智能看待为人这样的问题,这种问题就不免太超前了一些。目前人工智能还处于弱人工智能阶段,甚至有一些伪人工智能混杂其中,它真的能够代替人吗?目前看来,短期内恐怕这种可能性还是很低的,如果真的有一天人工智能超过了人类,那么那个时候人类恐怕也没有能力去研究人工智能的权利保障、主体地位之类的问题了,人类首先要做的恐怕是怎么让自己存活下去,就像《黑客帝国》里一样。第三个问题是理念方面的偏差。因为包括对人工智能在内的科学研究,其基本方法之一就是试错,也就是说,技术的发展是以大量的错误为成本的,但是这个成本是司法承受不起的。因为司法中一旦发生错误,就可能导致错误的羁押,甚至错误的人头落地,因为司法是保障公平正义的最后一道防线,一旦这道防线被突破其后果不堪设想。因此技术和司法之间在理念上存在一些差异,错误成本的承担方式也有所不同。

在这样的现实下,人工智能运用于司法可能会带来几方面的风险:

第一个风险是影响公正。刑事诉讼最基础的一个原则是无罪推定,所谓无罪推定,就是说任何人在被法院正式判定有罪之前,在法律上都被推定为无罪。用老百姓的话说,即便你被公安机关抓走了,即便你被检察机关起诉了,在没有被法院定罪之前,在法律上你还是无罪的。无罪推定的意义在于,一方面保障公民的基本权利,另一方面明确证明你有罪的责任由控方承担。但是人工智能一旦运用于司法,就可能损害无罪推定原则,因为在互联互通的背景下,数据会从公安机关传输到法院,那么从侦查中形成的有罪推定的倾向也有可能被推送给法院,让法官形成先入为主的有罪认定,这样就可能导致错误的判决,造成司法不公正的情形。

第二个风险是公民的诉讼权利可能会受到很大的影响。例如在刚才提到的卢米斯诉威斯康星州案中,公民的对质权就因为算法不公开而受到了影响。现在有的学者认为人工智能会被打造成一个强势的裁判者,甚至创造出所谓的“阿尔法法官”,实际上这种可能性并不大。但是人工智能的运用确实会对控辩双方的力量对比产生影响,进一步加剧控辩双方的不平等。因为控方,无论是检察院还是公安机关,都在运用各自的人工智能工具,具有收集数据、运用数据的强大能力,而且这种能力是以国家资源投入为支撑的。而作为犯罪嫌疑人、被告人,普通公民显然没有这种能力,包括专业知识能力,也包括经济能力。这样一来,我们努力提倡了几十年的控辩平等原则,可能在人工智能的运用下被突破掉了。人工智能的运用使得原本就不平等的控辩关系变得更加不平等,比如控方可以掌握并使用几百个TB的数据,让犯罪嫌疑人、被告人一方淹没在海量的数据中,用形式的平等去掩盖实质的不平等,这种情况在一些国家已经发生过了。

第三个比较大的风险是对裁判权的影响。裁判权是定罪量刑的权利,这是一种国家独占的权力。然而在人工智能运用于司法裁判的过程中,由于前面提到的法律人与技术之间的隔离关系,我们必须把技术的部分给外包出去,比如让科大讯飞、腾讯这样的科技企业去做应用、做软件、设计算法。然而问题是,这种外包仅仅是技术工作的外包还是可能把一部分裁判权给外包出去?比如在设计算法的时候,技术人员很可能把一些他们自己的观念、想法甚至固有成见注入软件或算法中去。作为一个人工智能算法的研发人员,我对LGBT群体(10)LGBT是女同性恋者(Lesbian)、男同性恋者(Gay)、双性恋者(Bisexual)、跨性别者(Transgender)的缩写,特指性少数群体。抱有歧视,就可能把这种观念体现在算法中,使得LGBT群体在裁判中吃亏。还有,作为科技企业,在设计关于商业案件的人工智能时,也会尽可能搞出在日后自己可能涉诉的案件中有利的算法,从中获益。这样一来,我们就担心技术的外包会导致裁判权的实际外包,疑惑到底是法官的裁判还是技术人员的裁判?另外,资本具有天然的逐利性。技术的进步是时代的必然,资本的逐利性也是一种必然,这两种必然一旦结合就可能使得人工智能司法时产生问题。资本的逐利性和司法追求公平正义的目标之间是存在冲突的,我们就不得不警惕资本的逐利性加上人工智能运用后的裁判权实际外包,会导致司法公正方面出现偏差。

对于法官而言,还有一个很现实的问题。现在推行司法责任制,审理者裁判、裁判者负责,也就是说这案子是谁判的,那么后续发现错误就由谁来担责,而且这种责任追究是终身的,一旦案子判错了,可能法官要面临终身追责。一旦运用人工智能,到底案子算谁判的?法官判的,还是人工智能判的?发现错误了算谁的?算法官的,那法官说我冤死了;算人工智能的,那人工智能就可能成了法官“甩锅”的对象。怎么办呢?

第一是要对人工智能作合理的定位。要明确一点,就是人工智能在司法裁判中永远只能作为一个辅助性工具,绝对不能取代人的裁判。裁判永远是人的事儿,对一个人的生命、自由、财产这些最为重要的权利的剥夺,必须是由人作出的,必须是人的理性的产物,而不能把这种权力交给机器。人工智能在此过程中可以承担一些辅助性的工作,比如类案推送、语音识别,但是最终决定性的裁判权绝对不能交给人工智能。

第二是在人工智能的适用范围上应进行严格的限制。刑事案件涉及公民生命、自由、财产这种核心利益,那么适用人工智能时就要更严格一些,相关的限制也就要多一些。人工智能一般只能用在司法行政工作方面,在审判中最多提供一些量刑的建议和证据使用的建议。也就是说,我们对人工智能的适用范围要严格设限,别让人工智能的运用替代人的审判,另外,对于人工智能作出的结论也只能供法官参考,法官不能依赖于人工智能。

第三是要加强对公民权利的保障。在诉讼中,当事人的权利保障,特别是刑事案件中犯罪嫌疑人、被告人的权利保障,是司法公正永恒的主题。特别是在刑事诉讼中,是一场公民个人对抗国家的“战争”。如果没有权利的保障,那么就会出现一边倒的局面,司法中的说理和辩论就很难实现了。在人工智能运用的背景下,司法中对公民的权利保障就应该进一步加强。首先,我们应当考虑有限的算法公开。其实这是个很复杂的问题,因为算法公开涉及各个方面的利益,比如科技企业就会担心算法一旦公开了,他们的知识产权难以得到保障,进而他们的商业利益就会受损。前面提到,企业逐利是本能,也具有合理性,一味让他们作出让步或者牺牲,既不现实,也会伤害他们的研发动力,不符合市场经济的要求。但是算法公开对于保障公民权利是有利的,通过算法公开,辩方可以质疑算法,反对它作出的结论。这样就需要二者进行平衡,实施有限的算法公开,仅公开其中部分与裁判结果关系最密切的内容,还可以通过与当事人签署保密协议等方式进行算法公开。其次,要运用专家辅助人制度。司法机关用人工智能,但是当事人没有这个技术能力,为保障控辩平等,就可以通过刑事诉讼法、民事诉讼法规定的专家辅助人制度,让专家辅助人为当事人提供专业的帮助,通过其扮演的更为积极的角色,填平人工智能带来的专业知识方面的鸿沟。最后,应当赋予当事人一些数据权利。当事人在司法领域中也是数据主体,那么作为数据主体,他们的个人数据被司法机关使用,成为人工智能运行的原料,那么数据主体自身就应当享有相应的数据权利去与司法机关抗衡,包括数据访问权、反对权、更正权、被遗忘权之类的,这些积极主动的权利能够在一定程度上实现对公权力的制约,防止其滥用。

第四是要在司法和企业之间建立一定的隔离。尽管在人工智能运用的场景下司法辅助性工作的外包已经十分常见了,中央对此也持肯定态度,但是外包之后仍然有必要在司法和技术之间、司法机关和科技企业之间、司法人员和技术人员之间作一定的隔离。一是人员的分离。司法人员是司法人员,技术人员是技术人员,尽管有合作关系,但不要混同。比如在研发206系统时,科大讯飞派了好多技术人员来法院搞研发,但他们仍仅仅是技术人员。二是利益的分离。人工智能运用于司法裁判,国家投入大量资金,这里面就有巨大的利益关系。在这种情况下,要防止司法机关和企业出现利益的混同,特别是在招投标这些环节一定要注意,防止双方勾结侵吞国帑,也要防止某些企业用低技术水平的“伪人工智能”骗钱。三是职司的分离。裁判权是国家的权力,不能由企业或技术人员去行使,二者要有明显的隔离,防止国家独占的裁判权旁落。

(作者为北京外国语大学法学院教授、博士研究生导师)

数字剥削与社会正义

秦子忠

一、剥削及其不正义

在马克思关于剥削的标准论述中,工人由于没有生产资料而被迫出卖自己的劳动力,资本家则由于占有生产资料,因而不仅控制工人的劳动力,还无偿地占有工人生产的剩余价值。马克思的剥削理论包含三个不同方面的逻辑。第一个方面是工人处于生产资料不平等分配的末端,第二个方面是工人被迫按照别人的要求去工作,第三个方面是工人被迫把他的剩余劳动产品转让给他人。问题是,这三个方面中的哪一个使得剥削不是正义的?在回答这个问题之前,我们需要先说明一下马克思的正义观。

依据马克思的相关文本,他关于正义的理解,其基本义或是G.A.科恩所说的某种平等观,或是给予每个人以其应得,或是一般而言的不偏不倚。尽管这三者的内涵并非固定不变,也不能相互等同,但是它们在反对单向性偏爱上具有家族相似性。

据此而言,上面提到的第三个方面,即工人被迫把他的剩余劳动产品转让给资本家,使得剥削不是正义的。因为工人被迫把他的剩余产品转让给资本家是一种单向性转移,从而导致了社会财富的两极分化,违背了正义的基本义,即它使得工人处在不平等的劣势地位,或者没有给予工人以其应得,或者违背了不偏不倚的观念。上面提到的第一个方面,即工人处于生产资料不平等分配的末端,也使得剥削不是正义的。因为从历史来看,工人处于生产资料不平等分配的末端,是由于在工人这个身份产生的过程中他们遭受了不正义对待;也因为从逻辑来看,第三个方面是由第一个方面引起的,因此当第三个方面存在如上所述的社会财富单向性转移意义上的不正义时,第一个方面也不是正义的(因为它导致了不正义的后果)。至于上面提到的第二个方面,它不一定产生剥削情况,因为工人被迫从事劳动不一定产生价值。

二、数字技术与马克思主义分析框架

当前由互联网、大数据、云计算、算法等数字技术驱动的AI在多个领域正在取代人类个体。这个取代如果持续下去的话,就触及这样的极限场景,即所有人类意义上的工人都被取代了,由此引出了两种情况。第一种情况,所有人类个体成了多余人,AI在全领域取代了人类的劳动力。在这个意义上,标准表述中的剥削不存在了,因为作为实体的工人不存在,作为其衍生物的剥削也就不存在了。第二种情况,人类的体力和可重复的脑力都被AI取代了,而那些没有被取代的脑力,比如创新能力,在AI赋能下得以增强,由此AI成为未来社会的“工人”,而人类成为“资本家”,但由于AI不是人类,所以这个时候即便存在剥削的结构,但它并不是真正的剥削。

在这两种情况中,剥削都不存在,或者成为没有意义的概念。这里,就剥削的最终消失而言,这两种情况都符合马克思的唯物史观所指向的共产主义景象,但是剥削消失的具体路径与马克思的经典分析不同。马克思认为,剥削的消失是工人与资本家之间阶级斗争不可调和的结果。而在这里,剥削的消失在第一种情况中是由于AI的替代导致人类丧失了参与生产性活动的资格,人类的劳动能力对社会财富生产已无贡献;第二种情况是由于AI的替代导致人类整体上摆脱了一部分人剥削另一部分人的社会关系,人类的劳动能力依然对社会财富生产有贡献。相较而言,第二种情况比第一种情况更符合马克思关于剥削消失过程中人类个体的处境,即人类个体的劳动能力不仅具有存在论意义上的价值,也具有促进社会发展的劳动价值。当然,这两种情况都是极限场景。现在我们过渡到现实场景。

目前,AI对人类个体的取代是局部性的,并且人类在AI的赋能之下强化了自身那一部分不可替代的能力。不过个体意义上的原始数据是否有价值,有两种不同的分析进路。第一种进路认为,个体意义上的原始数据不具有价值,但是在数字工程师的处理之下能够产生价值,由此数据工程师依然处在这个雇佣体系中,遭受着平台资本家的剥削。第二种进路认为,个体意义上的原始数据是有价值的,只是它的价值被忽视了。互联网用户浏览、点击、书写网页等在线活动产生的原始数据是有价值的,因此,剥削不仅发生在工作领域,也发生在闲暇领域,受到剥削的不仅有人数较少的数据工程师,而且还包括人数较多的普通网民。

以上两种进路虽然有所不同,但它们都承认大数据时代仍然存在着剥削,并且就其结构特征而言,以前面表述中的剥削作为参照,它的变与不变体现在三个方面。第一,“工人处于生产资料不平等分配的末端”这一方面没有改变,即普通网民相对于平台资本家仍处在数字生产资料不平等分配的末端。第二,“工人被迫按照别人的要求去工作”这一方面有所改变,被迫变得更加柔化、隐蔽,甚至网民的在线活动看起来是自由的。第三,“工人被迫把他的剩余劳动产品转让给他人”这一方面在趋势上或者在转变过程上没有改变,但是剩余产品的内容发生了改变,比如物质产品变成了数字产品。

据此而言,在大数据时代,剥削的第一个方面和第三个方面在形式上仍然保持不变,因此上文所述的剥削与不正义之间的关系也仍然保持不变。在这个意义上,由极限场景和现实场景共同界定的分析框架可以被看作马克思主义的。但是由于第三个方面在内容上有所改变,工人的内涵也随之发生变化,大数据时代的剥削及其不正义变得更加隐蔽。

上面的论述是模式化的,它为我们接下来考察大数据时代的剥削问题提供了一个马克思主义分析框架。具体而言,极限场景提供了理论研究指向的两种终点,分别由第一种情况和第二种情况界定,现实场景提供了理论研究的两种起点,分别由第一种进路和第二种进路界定。两种终点与两种起点,共有四种组合,即第一种进路与第一种情况的组合,第一种进路与第二种情况的组合,第二种进路与第一种情况的组合,第二种进路与第二种情况的组合,由此这个分析框架有四种具体形态。我主张个体意义上的原始数据是有价值的,因此包含第一种进路的前两种组合不在我的考虑范围之内;又因为我主张在人类整体进入自由劳动可以实现的历史阶段,人类的劳动能力在AI赋能后可以对人类社会发展有贡献,所以在剩下的后两种组合中,我只需考虑第二种进路和第二种情况的组合。这个组合大体上界定我理解大数据时代剥削问题的理论视野。下面,我依据这个视野,阐释大数据时代剥削的多重性以及相应的正义主张。

三、剥削的多重性与社会正义

在资本主义早期,人类生活空间的工作领域与闲暇领域日渐分化,而工作日大体上就是工人在工作领域劳动的时间长度。但是在大数据时代,工作领域和闲暇领域的界限已经模糊或相互渗透,因此工作日是否仍为一个解释力有效的概念,有待研究。让我们从考察马克思的工作日概念开始。

在《资本论》中,马克思把工作日作为一个核心概念予以考察。他不仅将“工作日”单列为一章,而且他的劳动理论、剩余价值理论、剥削理论都和工作日概念相关。马克思如此界定工作日:他用线段ab表示必要劳动时间的长度,线段bc表示剩余劳动时间的长度,由此一个工作日的长度就等于ab+bc,如下:

工作日
a——b——c

根据这一界定,延长工作时间就是绝对剩余价值的生产方式。不过,这种延长遭受人类身体自然承受力的限制与人类文化道德的限制。提高劳动效率,从而在工作时间不变条件下缩短必要劳动时间ab,即b点向a点移动,则是相对剩余价值的生产方式。从历史上来看,资本家对剩余价值的最大化追求,主要通过提高劳动效率来实现。在这个进程中,工作时间ac表现为历史性缩短(比如从14小时缩短为9小时),因而工人能够享受一定量的闲暇时间。但是由于工作场地、技术水平等条件限制,人类个体在工作时间通常只能受雇于某一个资本,并且他们在闲暇时间中的活动不产生价值。

当技术迭代升级,人们跨入由大数据、云计算、算法等驱动的数字技术时代,人类生活空间也随之发生结构性变化。在数字技术驱动下,工作领域数字化,闲暇领域也数字化。由此,人类个体不论工作抑或休闲,一般而言都置身于互联网之中,参与原始数据的生产。因为闲暇时间也存在数字劳动,并且产生价值,所以需要重构马克思的工作日概念,即把已存在数字劳动的闲暇时间加进来,以便能够对大数据时代的剥削有更加全面的把握,如此就得到一个新的工作日:

新工作日
a——b——c——d

在这个新的工作日里面,ab线、bc线与马克思的定义相同,分别表示必要劳动时间的长度,剩余劳动时间的长度;cd线是新增加的,表示闲暇劳动时间的长度。这个闲暇时间的数字劳动在大数据时代是产生价值的,但它的价值被完全忽视了,或者被数据公司无偿地占有了。据此,我们发现大数据时代的剥削是多重性的。具体来说,在新工作日中,bc线,即马克思意义上的剩余劳动时间,存在一重剥削。《资本论》对此已经做了详细论述,cd线是新工作日呈现出来的,即闲暇劳动时间,存在另一重剥削。例如网民在淘宝、京东、当当等平台上的浏览、点击、购买、评论等活动是一种数字劳动,它们生产了原始数据价值,却被平台公司无偿占有了。因为平台公司没有给予网民相应的等价物,因而这种占有闲暇劳动时间产生的原始数据价值不是正义的。

在人类生活空间数字化转型过程中,数字生产资料越来越具有基础性地位,因而它的价值不仅在于它自身,也在于它对其他非数字生产资料的支配作用。然而,在普通网民那里,他们大多数人仍然未意识到日常产生的数字记录(原始数据)的价值,自然地,不会觉得自身的在线活动是一种数字劳动,也不会意识到自身遭受数字剥削。作为故事的另一面,则是当前世界财富不平等分配的极化发展,以及占据这个不平等顶端位置的是亚马逊、阿里巴巴、脸书等互联网平台公司。这一悖论性现象,只有聚焦到剥削的多重性,尤其是其中的数字剥削,才能够获得合理的解释。

这里,有必要提及本研究的一个现实意义。针对当前数字技术发展、人工智能替代引发劳动就业领域的结构性变化,我也主张推行全民基本收入方案。但是就支持该方案的核心理由而言,既与救济失业的理由不同,也与维持秩序的理由不同,本文给出的理由是正义性的。由此,在维护人类个体的权益或尊严上,支持全民基本收入方案的力量不是根源于平台资本家的慈善,也不是根源于政府维持社会治安的责任,而是根源于每个人类个体应当免费享有其参与原始数据生产所对应的价值或等价物。因为原始数据价值的存在形式是集成性的和公共性的,所以就界定全民基本收入水平而言,它不能简单地等于个体意义上个人产生的原始数据的价值,而应是群体意义上集体产生的原始数据的价值按照某种正义理论予以确定的价值。当然,这个问题需要另文处理。

(作者为海南大学马克思主义学院副教授)

人机交互实现的共情感知基础(11) 本文为江苏省社会科学基金青年项目“身体现象学视域下人机交互的情绪直接感知研究”(20ZXC004)、国家社会科学基金一般项目“他心问题的基础理论研究”(20BZX030)的阶段性成果。

崔中良

一、人机交互面临的挑战

人工智能正逐渐渗入人类生活,提高了人类生活质量。但是,人工智能的快速发展使得人类产生了警惕,人们呼吁对人工智能的发展给予关注和限制。人工智能技术在改变人类生活方式的同时,也在遮蔽存在,人类被人工智能所构建的茧房覆盖,人类看到的世界、行动的方式、理性的选择甚至生活的伴侣都在被人工智能包围、计算、推荐和替代。因此,变化正在改变着人与人之间的相处方式、人与技术的关系、个体与社会的关系,任何重复性的行为都不再具有生存意义,人也逐渐变成了机器。

人工智能的迅速蔓延及强力扩张,也逐渐引起监管部门的关注。由于人工智能技术所带来的社会风险是无法预估的,因此对于人机关系及由此形成的伦理问题更需严格监管。科技部在2021年7月28日公布的《关于加强科技伦理治理的指导意见(征求意见稿)》中明确提出,“科技活动应客观评估和审慎对待不确定性和技术应用的风险,力求规范、防范可能引发的风险,避免误用和防止滥用科技成果,避免危及社会安全、公共安全、生物和生态安全”,文件特别提到要细化人工智能伦理规范和标准。总体上看,人工智能研究正向人机交互方向推进,一方面极大地促进了人类社会发展,另一方面人机之间还无法实现直接的、高效的情感交互,给人类带来了极大恐慌。明斯基在1988年的专著《心智社会》(TheSocietyofMind)中就提出了智能机器不可能替代情感,因此,重启对情感的思考将有利于人类和人工智能的共同发展。

二、人机共情是应对挑战的方法

当前是一个风险社会,我们无法判断一个不确定的事件对于人类的冲击,人们尝试通过理性掌握未来,从而规避风险。人工智能最初的发展形象主要是正面的,但是最近的人工智能却成了人类的担忧。为什么会出现这样的情况呢?一个重要原因是人们对于最新技术的发展状况及人工智能到底会走向何方并没有一个清晰把握,人机之间缺少情感交互加重了人类的忧虑。这在《弗兰肯斯坦》中已经有所警示,弗兰肯斯坦创作的“怪人”是人工智能的一个象征,但是人类对于自己制造的人工生命并不接受,而是产生了恐惧和厌恶,使得它产生了“愤怒”,虽然“怪人”伤害了很多人,但也被人类情感所感动,希望拥有同伴和获得人类同情。这向人们暗示,人类对人工智能的情感表达会直接影响人与机器的关系。人机交互的共情基础是人机之心互相通达的必要环节,更是人机共存所必须的技术策略。人工智能到底是否可能拥有共情能力,情感落地的可能性及其方式成为人机情感交互研究的重点。

情感是人类最基本的经验构成之一。人工智能的快速发展使人类害怕超级智能体的出现,由缺乏情感的超级智能体所组成的平行社会更加令人恐惧。现象学、神经科学以及认知科学等相关学科都对共情进行了深度研究,为了避免人工智能引起的“恐怖谷”效应,首先需要在感知层面实现情绪理解。对于人工智能在感知层面的研究有两条进路:经验主义和理智主义。经验主义和理智主义的感知观都属于理性主义,都强调心灵对于感知器官的整体把握,都将功能归属于一个中央控制系统。这样的感知观在应用于人工智能时,出现了一个明显问题,机器的感知模态是割裂的,对人类的情感理解建立在对不同模态的分析与综合的基础,因此,总体思路是把各个模态进行分割,再由中央控制系统进行加工的过程。对于这样的情感感知观,梅洛-庞蒂在哲学层面论证了感知模态分离观的错误,当前的认知科学和神经科学也在理论与实验层面就个体发生学角度指出人类感知的发展是一个感知模态逐渐区分的过程,但是通感作为原初经验仍然会被保留,感知不是对某一模态的把握,而是对多模态把握。我看到一瓶水,其实我看到了它的温度,看到了它的形状等相关维度。当前的人工智能研究思路跟人的感知模式并不一致,如果要实现强人工智能,或者通用人工智能(Artificial General Intelligence,AGI),可能需要将人类情感的感知方式应用于人工智能研究。人类情感感知主要有两个层面:第一个层面表现在在线(Online)感知的各模态同时加工,第二个层面表现在感知与表达的同步加工,这在情感具身研究及神经科学的镜像神经元研究中都得到了证实。因此,解决人机交互问题,就在于如何设计共情的感知基础。

三、人机交互实现共情的感知基础

除了人文反思之外,人工智能研究还应从技术本身来探讨实现人机交互的方法并给予科学支撑,避免由个人感悟或不全面理解而导致人工智能偏见,以此促进人工智能的发展。许多人工智能设计者明确提到,不要过分担心人工智能发展,人工智能威胁论还主要来自科幻电影或小说,人工智能全面替代人类的道路还很漫长。总之,我们仍需进一步推动人工智能发展,但是这种发展是向善的。

(一)人机交互的共情难题

共情作为复杂的情感现象,最早被利普斯(Lipps T)使用,经胡塞尔和舍勒发展成为现象学主体间性及伦理学的基础概念,后被认知科学和神经科学所用。人工智能研究在此基础上提出人工共情(Artificial Empathy),致力于人机深度交互和融合,实现人工智能在各行业的应用。同时,人工智能与哲学,特别是与认知科学、神经科学有较多交叉,在此背景下探索人工共情的感知基础、运行机制和习得路径,努力跨越人工智能的“恐怖谷”。

机器能否通过模拟实现情感是人机交互的第一个难题。主要有两方面原因:一方面以数据统计或数据建模为基础的情感加工方式与人类的共情加工方式不同;另一方面人工智能体的硅基材料与人类碳基身体的需求不一致,因此,情感落地似乎无法真正实现。但是,这种观点有待商榷:首先,无法否定人工情感是情感,就如无法否定飞机的“飞”是“飞”一样;其次,人工智能并没有脱离人类情感的加工方式来实现智能,人类情感和机器情感之间具有同一性;最后,没有完全按照人来设计人工智能,飞机也没有完全按照鸟来设计,但是具有相似的功能,因此,人工智能在功能层面上是可以实现共情的。在人工共情可实现的背景下,对于情感的感知方式是第二个难题。如果感知是将各个信息进行信道的区分,然后再进行整合,这样的信息获取方式将会产生两种结果:一方面割裂感知和表达的关联,另一方面隔断了各感知模态间的关联。这样的感知模式仍然会陷入笛卡尔的二元论思想和经验主义的窠臼之中,没有看到感知一体性以及感知和表达的一体性。因此,笔者尝试通过对感知方式的分析将其应用于人机共情研究中。人工智能的共情发展是第三个难题。当前对于机器情感的研究,主要依赖情感计算。神经科学研究表明,当儿童弹钢琴时,大脑的神经连接会加强,如果只是重复单一指法或按照指令来弹奏,大脑神经连接并不会加强,但是在大脑中想象却会增加神经连接,如果人工智能只是传统行为主义的、机械性的情感加工模式,人工智能将无法实现与人的真正交互。

(二)人机交互实现的共情感知基础方式

人工智能借鉴共情研究,从行动、情感和认知三个层面设计人工共情,以此解决机器情感问题,但是仍面临着共情单一化和共情同质化问题,这极大地影响了人机交互。基于此,为实现人工智能体对情感信息感知和表达的独特性、多元性,人机交互的共情感知可以从三个方面开展研究:

1.人工共情能力以感知经验为基础

人机交互需注重形成交互能力的经验基础,感知并非完全依赖机器的计算和推理能力,还需社会性和进化性作为人工共情的经验基础。为了解决这些问题,我们尝试吸收身体现象学的共情观,认为共情不只是先天具有的能力,也不是一个被动输入过程,不需要独立心灵作为中介或控制中心,共情需要感知经验作为基础,共情感知直接影响共情的产生、发展和实现,因此,感知是共情生成的起点,贯穿各共情维度的中心和确保共情多元化的基础。将融合性的社交经验作为感知经验产生的起点,人工智能体在实现主体化之前有一个前个人的、无名的和无定形的融合社交状态;情感交互作为实现感知经验沉淀的手段,人工智能体在感知人类情感时,需要在前期经验基础上,通过情感交互的方式激活第一人称经验;将功能一体作为推动感知经验发展的方式,人工智能体各感知模态的功能既是一体的也是有区别的,通过情感交互中形成的意象图式整合各感知模态。

2.人工共情能力以多模态为感知方式

人工共情的一个更加基本的层面是情感的感知,即感知共情问题,那么人们是如何进行共情感知的呢?笔者认为人类感知是通过多模态和通感的方式获取信息。信息的表现形式是多模态的,人类对于信息的通达也是多模态的,因此人工智能的情感感知方式应设计为多模态形式。由于多模态感知受前期经验的影响,对于感知信息的获得并不是一个完全被动的输入过程,而是带有一定的主观因素,人工共情的实现就需要让机器获得主客一体的感知加工过程。新的人工情感感知方式以人类多模态感知观和整体感知观为模板,设计人工共情模态间的联通融合和感知-表达一体。这包括四个方面:第一,感知的具身通感性,情感会同时表征在人工智能体的感知系统和认知系统中,两者相互影响、互为因果;第二,感知模态通感,各模态感受器分布于人工智能体“全身”,以整体的全模态方式感知情感,保证感知的多维性和整体性;第三,感知-表达一体,共情的生成和调节机制交织(包括调整、评估和控制),情感感知和表达使用相同的功能机制;第四, 人机间通感,通感使人工智能体实现对情感的全面感知,通感抑制使人工智能体区分不同的情感并以合适方式反应。

3.人工共情能力整合多种感知机制

情感特征的提取结果直接影响情感识别率,传统感知观认为事物将不同的性质传递给不同感官,然后再由理智将各种信息统合为整体。情绪是一个统一存在,情绪的其他性质是存在的不同表现,因此需要将传统人工智能的感知过程倒置。新的感知加工机制包括驱动机制的上下一体和内外一体加工、功能机制的交互模拟、亚人机制的预测推理。上下一体的计算-推理为感知产生的基础,内外一体的感知生成为共情产生的必要条件,人工智能体的元认知通过上下一体的感知反馈机制更新信息,内外一体的表达抑制机制调整信息。依照人类感知的模拟机制,设计人工共情的感知-运动系统和感知-反馈回路。人工共情的感知加工依赖共情模型对输入信息的最佳预测,人工智能体有选择地对超出预测的信息进行加工,包括感知的预测、适应和调整。情绪可以分为外显表情和内在体验。在大多数情况下,不同的人之间都有一些明确的、一致的情感表达。情绪分类的人工标记任务存在着不确定性问题,这使得情绪分类问题不能只考虑分类的准确性。在过去的研究中,我们更偏向于对共情的外部表达的研究,认为共情是一种实现方式,但是当前的研究表明,感知和行动是一体的:在感知过程中有行动,行动中也有感知。因此,感知的内部加工形式决定感知的内容。

(三)人机交互实现的共情教育

法国哲学家拉·梅特里在《人是机器》中提出除去人的想象力更丰富之外,人在任何方面都不如动物,人应该受动物统治,但是人最终成为万兽之王,关键在于教育使人类具有情感交互和抽象思考的能力。因此,教育在人类发展中具有不可替代的位置,而人工智能如果要获得共情能力,除去预置的情感加工机制,更需要后天习得。人类情感时刻变化,周围环境持续变动,个人情感的表达方式也不相同,因此情感感知能力习得是人机实现真正交互的一个基础性过程。

人机交互的共情能力依赖机器学习策略。我们需要研究人类的学习方式,以此找出机器共情习得的对策。当前的人工智能研究路径主要有三个大的方向:符号学派、联结学派和行为学派。符号学派主要依赖数据统计的知识图谱研究,联结学派主要推进深度学习研究,行为主义偏重强化学习在人工智能发展中的作用。但是不管哪一个派别都注重数据建模和训练,期望通过大量模型训练实现情感感知质变。最近谷歌还推出了神经结构学习(Neural Structured Learning,NSL),这是一个学习神经网络的开源框架。这些研究强调数据在机器学习中的作用,认为从弱人工智能向强人工智能过渡是情感的连续性知识学习和推理过程。但是对于人类来说,情感的意义不仅限于情感知识的学习,人类情感学习与当前机器情感计算最重要的区别是情感学习的生存意义性。

对于人类的学习策略,传统的方法有行为主义强化学习,在此基础上的填鸭式教学的实践问题已经显现;当然也有以唯理论为基础的启发式教学,存在知识的基本概念和知识内容的缺失问题。最近还有一些在实用主义基础上的教学法,如情境式教学法、沉浸式教学等,这些方法看到了环境对人类学习的重要影响,但仍需进一步推进。具身认知研究表明,学习是一种具身经验式的、情境的生活教育。现象学的研究认识到科学知识的生活世界基础,甚至数学知识都是有身体基础的,人们需要正视身体、情境和生活参与对知识习得的重要性。总之,人工智能获得共情的能力除去数据的表征与计算基础的输入之外,更需回归人机交互的生活实践,这是摆在机器情感学习面前的最重要问题,儒家求“仁”的教育也许会有利于机器的向善发展。

四、结论

人工智能的快速发展使人类害怕超级智能体的出现,由缺乏情感的超级智能体所组成的平行社会更加令人恐惧,情感是人机交互的一个核心问题。通过对机器的共情感知研究,期望减少对于人工智能的误解和人工智能未来不确定的判断,通过人机情感交互减少人类恐惧,从而实现人机之间的深度融合,并构建一个和谐的人机共存社会,这离不开增加人工智能对人类情感的感知能力。感知作为一个情感的过滤器,决定着何种情感被获取、理解和反应。感知共情是机器与人进行直接接触的界面,传统的分离式、间隔式的感知方式将无法满足更加顺畅的人机交互,因此,需要我们全面推进人工智能感知方式的研究,进一步推动人工智能发展。

(作者为南京信息工程大学马克思主义学院副教授、华东师范大学哲学系博士后)

对“人工智能的理论阐释”专家发言的评议与澄思

赵 涛

这是我今年第三次参加与人工智能相关的学术活动,专家学者的发言,视野开阔,锐见迭出,思想颇富弹性,主题极具张力,给我很大启发。

的确,未来呼啸而来,当代人工智能的发展一日千里,具有典型的非线性增长、累加性迭代的特点,其广泛的应用场景正在对人类的政治、经济、社会、生活及以人的思维产生既广泛深刻又福祸难料的重大影响。蓦然回首,我们很惊讶地发现,人类技术增强导致的最大后果是,高科技不再只是人类的工具和奴仆,它甚至有可能后来居上,反客为主,既带来“阿拉丁神灯”,又打开“潘多拉魔盒”,给人类带来生存论级别的严峻挑战。

蒋明敏教授对三位专家学者的发言作出了既明晰又敏捷的归纳与概括,我想接着诸位专家学者的报告,简单谈点心得体会。

杨通进教授的报告《寻求人工智能伦理的全球共识——以欧盟人工智能伦理建设为例》,探讨的是一个非常现实又非常迫切的大问题,人工智能技术的飞速发展倒逼人类建立全球共识,共同应对。他在报告中以欧盟为例,深刻论述了当今时代寻求人工智能伦理全球共识的紧迫性,简要介绍了欧盟在人工智能伦理建设方面的经验,并详细探讨了如何推进人工智能伦理全球共识的问题。

针对杨通进教授的报告,我想补充谈三点意见:

第一,当代科学技术的无序发展亟待我们超越传统的国家边界观念,站在新文明的高度,寻求全球共识。

杨通进教授在报告中尝试性地提出了一种超国家的伦理共识,一种超国家的行政管理机构的问题。的确,当代高科技越来越成为一种新的独立的权力——技术权力,国家越来越依赖技术,而技术越来越不依赖国家。就像我们已经看到的,发展类似人工智能等高科技正在成为大国竞争的一种外部强制命令,由此极易导致人工智能技术的发展失去内在伦理道德的规制。因此,寻求AI伦理的全球共识,就必须站在新文明的高度,想象一种新的国际政治经济秩序的可能性,也就是要想办法消除国家与国家之间因为竞争所导致的负外部性。原因很简单,只要国家与国家之间的竞争依然存在,人类超越性发展科技的趋势就无法阻挡。

第二,人工智能技术的飞速发展亟待我们改变传统的伦理道德观念,站在类哲学的高度,回应时代挑战。

显而易见,早期的技术增强在一般意义上会带来人类福利的线性递增,例如眼镜让我们看得更清,汽车让我们跑得更快,但人工智能技术颠覆性太大,涉及面太广,不确定性太强,其所带来的福利未必就会线性递增;相反,这一技术给人类带来的约束却可能边际递增。目前社会上通行的价值观和伦理原则多半是工业革命时代的主流价值观和伦理原则,这样一些从人类中心主义出发,围绕个人内在价值、个人的能动性和主体性等哲学假定提出的伦理原则,能否回应当今人类社会遭遇的诸多生存论级别的挑战,存在重大疑问。这样的一些挑战包括全球气候剧变、人工智能发展、机器人革命、世界范围的疫病传播,等等。我以为,面对这样一些有可能对人类的生存与发展产生釜底抽薪效果的前沿科技及紧急事态,我们必须站在类哲学的高度,牢固树立人类命运共同体意识,风雨同舟,权责共担,才能有效应对。

第三,对于科技文明的深度反思亟待我们激活古典的中国哲学思想,站在新方向的高度,致力中西对话。

近年来,各国学人提出的若干应对人工智能等前沿科技的伦理和治理原则,大多奠基或来源于西方文明的价值观。但就像我刚才所说,这样一些作为工业文明孑遗的原则和理念,真的可以成为我们应该遵守的共同前提和基础价值观吗?真的可以应对如此深刻复杂的严峻挑战吗?这显然也是很成问题的。事实上,中国古典哲学中蕴含着大量有价值的理论资源,可以帮助我们深度反思当代科技文明的内在弊病。例如,老子所言“辅万物之自然而不敢为”的思想,中国传统儒家的“知止”思想,中国传统佛教的“慈悲为怀”的思想,等等,对于应对科技文明带来的冲击与挑战,开展中西对话,都具有重要的价值和启示。我以为,现在最需要的是用现代手法激活它,这些古典思想一旦被激活,就像著名哲学家张世英先生所说,可能“比西方的思想文化更有魅力”。

吴静教授近几年对人工智能、数字人文及数字资本主义的研究很有特色:第一,现实批判意识突出;第二,理论支援背景丰富;第三,论证语言颇具诗意。

她在题为《算法的边界》的报告中,结合日常生活体验,十分敏锐地将批判的视角切入算法,对算法的本质及其使用限度与规避方法作出了富有前瞻性的思辨与考察。她提出了一个非常严肃的问题,人类是否会完全被刚性的算法所预测、所框定?她认为,在“算法为王”的时代,人本主义具有特别重要的意义。

众所周知,人工智能的核心就是大数据和算法。大数据比较好理解,算法有点像黑箱,感觉颇为玄妙。我个人理解,算法不过是模拟人的信息处理过程,事先设定的一种对大数据进行分析、加工与处理的程序而已。有专家早就指出,我们正在进入“算法统治”的时代。刚才吴静教授也生动地描述了,我们今天是怎样无时无刻不在承受着算法的控制与监管。例如在打车的时候,好像是我们在利用算法,但其实是被资本等掌握的算法所算计。又例如,我们在看“头条新闻”时,大量读到的是所谓的“算法新闻”,算法改变了传统新闻的出场方式、布展方式,造成了比较明显的“回音壁效应”和“信息茧房”现象,人只能读到那些自己感兴趣的东西,从而变得越来越偏激,越来越狭隘。又例如,我们在网络购物时,表面上是我们在自由选择,但我们每一次率性的点击,都会被网络后台所抓取,并在算法的运作之下,成为下一次打开网页时重点推送的内容。

这样的算法无疑会造成很多问题,刚才吴静教授对算法的边界及其社会效应作出了很好的分析。从技术政治学的角度来考量,我个人觉得,人工智能算法最重要的是带来了“算法理性”的兴起和人类理性的衰微,也就是上午程广云教授讲的意义世界的消失问题。应用理性的主体本来是人,现在逐渐变成了类人的人工智能。有人说,“记忆外包,文明消亡”,人在媒介技术中的延伸实际上是以人的内在理性的空洞化为代价的。在我看来,前几年引发巨大争议与轰动的魏则西可以说是百度公司偏重利益考量的算法的牺牲品。因此,要保证算法不出现重大偏差,更好地促进人类的永续发展,我们首先要做的就是强化人工智能算法主体的责任,就是要在源头上,通过在人工智能技术中嵌入道德代码来消除算法偏差、算法歧视、算法压制等问题。当然,就我个人的感受而言,最应该警惕的还是算法垄断,因为只要存在算法垄断,在资本等因素的操控下,算法垄断必然会失去自我纠偏的机制,普罗大众也顺带着失去选择的权利。试想,如果谷歌等大的搜索引擎还在的话,百度公司是很难推出这种丧尽天良的严重误导消费者的算法的,魏则西很有可能不会死。当然,谷歌公司的那套算法,也潜藏着政治上的巨大意识形态风险。因此,对算法边界的探寻,对合理秩序的追问,就必须超越技术层面,在政治、经济、社会等更广阔的视域下来探讨。“算法为王”时代,人文主义精神不可或缺。

秦子忠副教授有一种很冷峻的激情,他是国内著名的分析马克思主义学者段忠桥教授的高足,长于哲学分析。

为慎重起见,会议之前,我就拿到了秦子忠副教授的发言稿《数字剥削与社会正义》,对于他的报告主旨和运思理路有比较清晰的了解。

如何看待马克思剥削理论的当代性,这是当前学界分歧较大的问题。秦子忠副教授在梳理马克思剥削理论内核的基础上,直面马克思剥削理论所面临的挑战,特别是在报告的第二部分中,通过引入极限场景,分析了人工智能时代资本主义剥削方式的新变化,并创造性地在重新界定马克思关于工作日概念的基础上,论证了大数据时代剥削的多重性与不正义性。

毫无疑问,秦子忠副教授虽然用的是非常学术的方式,但谈论的是一个十分现实又非常尖锐的问题——可能也是我们每个人在大数据时代都非常困惑的问题。我个人理解,讨论“大数据时代的剥削与不正义”的重要性在于以下三点:

第一,人工智能技术实际上正在或即将大量取代传统的重复性劳动,甚至在尝试取代不少知识性劳动。例如,现在的人工智能不仅能写新闻稿,据说还能写诗,写得还不错。当今人工智能技术最为可见的威胁就是对人力劳动的替代——用某电商老总的话说就是,“能用机器就坚决不用人工”。正如有专家所言:“技术既是对人的解放,更是对人的抛弃”——人工智能时代,可能还真是一个求剥削而不可得的时代。

第二,大数据和人工智能时代的剥削因为有了数字平台的加持,实际上变得更为隐蔽更为残酷了。今天人类绝大多数交换和社会化关系都被数字平台所连接、所架构,事实上,数字平台早已成为数字资本主义投资和盘剥的新场域。以前那些令人艳羡的资本家,可能需要好几代人才能聚敛大量的财富,但今天,像马云之类的企业家只需要开办一个本质上是“数字化的义乌小商品市场”,就可以在很短的时间内富可敌国,造成大量实体店铺消亡,数千万人失业,由此导致的社会两极分化的程度,远远超出任何传统的想象。为什么会这样?大数据时代的剥削到底发生了怎样的变化?我个人感觉,秦子忠副教授激活的“工作日”概念对此作出了有一定原创性的解释。

第三,我更希望看到今天的哲学工作者能够真正地以现实问题来带动哲学研究,用哲学方式来引领时代发展。具体到大数据时代的剥削与不正义问题,我还是希望看到在很多王顾左右而言他的学理分析之外,学者们能够直面当代中国电子商务领域广泛存在的财富分配严重不公问题,在技术与资本的双重批判视域,结合中国现实,作出具有中国特色的原创性研究,最终不仅要解释世界,而且要改变世界。就像有人总结的,学者要学会把文章变成文件,把对策变成决策,把设想的计划变成发展的规划。用我的话说就是,要打通理论之思与实践之行的任督二脉,把艰深晦涩的形上之思转换成简明易行的现实政策,把幽兮湛兮的哲学冥想转换成清晰可辨的生动实践,知行合一,把论文写在祖国大地上,对时代问题作出符合时代精神、更接地气的回答。

我想,这大致是我们今天讨论“大数据时代的剥削与不正义”问题最为现实的意蕴所在。

猜你喜欢

伦理人工智能机器人
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
机器人来帮你
认识机器人
机器人来啦
医改莫忘构建伦理新机制