APP下载

再思人工智能时代的主体边界:来自法律的视角

2023-12-22吴清卿

上海文化(文化研究) 2023年4期
关键词:人格人工智能机器人

吴清卿

科幻文学作品经常会描绘一幅人类和机器人共同生活的场景。其中,有机器人服务、保护人类的情节,也有人类与机器人相互对立、彼此仇视的情节。这些作品的故事背景,通常是人类社会的数字科技已经达到强人工智能(ArtificialGeneralIntelligence,AGI)甚至超人工智能(ArtificialSuperIntelligence,ASI)的水平,然而在现实中,这仍是现今科学家和科幻作家们梦想中的“新大陆”。

但是,科学幻想与科学现实之间的距离正在拉近。在人工智能技术日新月异、不断进化的当下,以ChatGPT为代表的生成式人工智能已经能够与人类对话,并代替人类进行设计、绘画。站在这样一个技术升级的转折点上,人类与智能机器之间的这种从前经由科幻故事所阐发的复杂而又微妙的关系,连同许多纠缠于人类和智能机器之间的疑难问题,又一次被带入公众视野。其中最受关注的问题仍旧是智能时代的人机关系:人工智能是否可能具备自由意志?人工智能在何种意义上可以被视为具有主体人格?

所有问题的关键或许在于,人类可否用看待同类的方式去理解自己的“造物”并赋予它们一定的权利。面对来自技术的挑战,法律或许可以借鉴历史的经验赋予人工智能某种“人格”,从权利/义务的角度去探讨它们在人类社会中的参与;也可以插上想象的翅膀,思考法律将如何持存于一个强人工智能的未来时代。

一、何以智能:智能科技的演化之路

人工智能技术的发展分为三个阶段:弱人工智能(ArtificialNarrowIntelligence,ANI)、强人工智能和超人工智能。①《什么是强AI?》,IBM网站,https://www.ibm.com/cn-zh/topics/strong-ai。弱人工智能指的是需要遵守固定程序从而进行交互的人工智能,例如语音助手、扫地机器人等单一任务、单一场景的AI。强人工智能是指能够达到人类思维水平的AI。在强人工智能领域,机器学习和深度学习是近年来发展最迅速的子领域,其中深度学习就是模拟人类的神经网络建造多层次模型,让机器通过学习已有的数据集从而自动形成算法并触类旁通地解决问题。近来风靡全球的ChatGPT所依赖的大语言模型(LargeLanguageModel)本质上就属于深度学习的框架。而最后一种超人工智能则为人们想象中的、可以超过人类的AI。与AI相关的电影和文学作品中的“人机大战”大约指的都是超人工智能时代才可能发生的事。有人工智能科学家指出,目前人工智能的发展处于弱人工智能与强人工智能的中间点。

自2022年12月以来,以ChatGPT为代表的大语言模型产品带来了文字、图片和设计创作的革新,比如可以根据用户输入的关键词生成包含关键词中各种元素的图片。ChatGPT在经历迭代以后,最新的GPT-4产品可以在美国的法学院入校考试(LSAT)中获得排名前10%的成绩,也可以高分通过美国司法考试。①ChatGPTV4AcestheBar,SATsandCanIdentifyExploitsinETHContracts,2023-03-15,https://cointelegraph.com/news/chatgpt-v4-aces-the-bar-sats-and-can-identify-exploits-in-eth-contracts.

“人工智能之父”图灵(Turing)提出了著名的“图灵测试”,以检测AI技术是否达到“强智能”。该测试认为如果让检测者和机器对话,当超过50%的检测者无法辨别对方是人类还是机器时,则认为该技术具有“智能”。目前,尽管没有任何官方机构宣布ChatGPT及其迭代产品已经通过图灵测试,但是已有许多相关领域的教授和计算机科学家们完成了对GPT-3和GPT-4的相关测试。②Andrew,ChatGPTPassesTuringTest:ANewBenchmarkinAI,2023-04-01,https://www.westarter.org/chatgpt-turing-test/.AllisaJames,ChatGPTHasPassedtheTuringTestandIfYou’reFreakedOut,You’reNotAlone,2023-03-29,https://www.techradar.com/opinion/chatgpt-has-passed-the-turing-test-and-if-youre-freaked-out-youre-not-alone.DamirYalalov,ChatGPTPassestheTuringTest,2022-12-08,https://mpost.io/chatgpt-passes-the-turing-test/.此外,谷歌(Google)的大语言模型LaMDA也已在2022年6月通过该测试,比LaMDA更先进的GPT-4能通过图灵测试也就不奇怪了。③WillOremus,Google’sAIPassedaFamousTestandShowedHowtheTestisBroken,2022-06-17,https://www.washingtonpost.com/technology/2022/06/17/google-ai-lamda-turing-test/.GPT-4能够根据提出的问题调整说话方式,可以用轻松的、正式的、幽默的甚至讽刺的语气进行沟通。当然,即使GPT-4通过了图灵测试,也并不一定意味着它可以像人类一样思考或理解问题。有科学家认为图灵测试并不能全面地测试AI的智能水平,④A.P.Saygin,PragmaticsinHuman-ComputerConversation,Journal of Pragmatics,2002(34),pp.227-258.因为该测试并不直接测试计算机的行为是否智能,它仅测试计算机的行为是否像人类一样,而人类行为和智能行为并不相同,因为人类的某些行为是不明智的。

美国斯坦福大学教授米哈尔·科辛斯基(MichalKosinski)于2023年2月发表论文称GPT-3.5的心智水平已达到7岁儿童的水平。这个结论是通过心理学的心智理论(TheoryofMind)测试得到的,该试验主要检测各种语言模型能否意识到其他人有与现实不同的“错误信念”。该研究表明,2020年之前发布的语言模型几乎没有表现出解决“错误信念”任务的能力,而2020年5月发布的第一个版本的GPT-3解决了约40%的任务,表现与3.5岁儿童相当;2022年1月发布的第二个版本解决了70%的任务,相当于6岁儿童;2022年11月发布的GPT-3.5解决了90%的任务,达到了7岁儿童的水平;2023年3月发布的GPT-4更是解决了95%的任务。这些研究表明,从前被认为是人类所独有的心智能力,可能作为语言模型提高语言技能的“副产品”而出现了。⑤MichalKosinski,TheoryofMindMayHaveSpontaneouslyEmergedinLargeLanguageModels,websiteofCornellUniversity,2023-02-04,https://arxiv.org/abs/2302.02083.

当技术更迭日益朝着智能化发展时,许多在机器人技术开端就被埋下伏笔的疑问会再度进入我们的视野:人工智能是否会超越人类?是否可以用思考人类主体的方式去理解人工智能?关于人工智能是否具有人格,以及未来它在人类社会中的地位是什么,法律似乎自有一套话语加以应对。然而,当我们为机器人或人工智能模型赋予某种类似“人格”的地位时,似乎注定会带来更多理论和实践中的问题。无论如何,当机器和人工智能日益被“缝”进人类生活,法律的登场只是时间问题。问题在于,我们是否为这样的未来做好了充足准备。

二、“电子人”的权利/义务:人工智能的人格权迷思

2017年,沙特阿拉伯授予机器人索菲亚以公民身份。①AndrewGriffin,SaudiArabiaGrantsCitizenshiptoaRobotfortheFirstTimeEver,Independent,https://www.independent.co.uk/tech/saudi-arabia-robot-sophia-citizenship-android-riyadh-citizen-passport-future-a8021601.html.索菲亚由注册于中国香港的机器人公司制作,有皱纹、有表情,能够在回答问题时微笑或露出疑惑、难受的表情。然而著名AI科学家杨立昆(YannLeCun)在当时便指出这是一场“骗局”,因为索菲亚的许多回答是通过程序设定好的。索菲亚在回答记者提前提交给会务组的3个问题时表现优秀,但当遇到记者现场随机提出的问题时,其对话水平明显下降。②《“暧昧骗局”机器人索菲亚》,知乎网,2018年1月7日,https://zhuanlan.zhihu.com/p/32702643。6年后的今天,应用于索菲亚和ChatGPT的自然语言处理模型蓬勃发展,索菲亚是否会更像一个“人”?作为第一个被赋予“人权”的机器人,索菲亚的权利问题引发了广泛讨论。假设未来到达了AGI或ASI时代,人工智能机器人是否可以具有法律人格?其权利又是什么?

根据《中华人民共和国民法典》第九百九十条,人格权是民事主体享有的生命权、身体权、健康权、姓名权、名称权、肖像权、名誉权、荣誉权、隐私权等权利。自然人也享有基于人身自由、人格尊严的其他人格权。当人格权受到侵害时,受害人可以依法请求行为人承担民事责任;同样,侵害他人权利时,也应当承担相应的民事责任。如果给予人工智能“人格权”,那么当它侵害他人权利时应当以什么形式、什么能力来承担责任?这需要结合我国的法律制度进行深刻思考。以ChatGPT为例,目前ChatGPT生成的信息并非都是真实的信息,有些虚假信息极有可能损害他人的名誉权。再比如,如果用户在与ChatGPT交互的过程中不小心透露了隐私信息,由于ChatGPT会收集并学习用户输入的信息,因此它很有可能在日后回答其他用户的问题时泄露该隐私,侵犯用户的隐私权。在当前的技术和法律框架下,ChatGPT之类的产品并不能承担责任,所以当它侵犯他人权利时,其生产经营公司就需要承担民事责任。如果承认了类似的技术的独立人格,那么就要让技术本身承担责任,而在无法确定人工智能的其他相关权利义务的时候,让它独立承担责任好似天方夜谭。

其实欧洲的立法者很早就开始思考人工智能是否具备独立人格。2016年,欧盟三大常设机构之一欧洲议会呼吁建立“人工智能伦理准则”,提出要考虑赋予某些自主机器人“电子人”(ElectronicPersons)的法律地位。尽管该提案最后并没有被通过,但欧洲议会对于人工智能技术的载体可能拥有的法律地位的相关思考在世界上仍是超前的。关于智能自主机器人,欧盟的法律事务委员会提出了四大特征:(1)通过传感器和/或借助于其环境交换数据(互联性)获得自主性的能力,以及分析那些数据;(2)从经历和交互中学习的能力;(3)机器人的物质支撑形式;(4)因环境而调整其行为和行动的能力。①《十项建议解读欧盟人工智能立法新趋势》,腾讯研究院,2017年2月16日,https://www.tisi.org/4811。目前,生成式人工智能可以做到根据用户的问题而形成交互的答案。也有科学家将ChatGPT技术接入机器人,机器人可以流畅地交互,适应不同环境并调整其行为。这些特征都非常符合欧盟提出的“电子人”概念。

这么看来“电子人”的概念似乎很合理,像是模仿“法人”而产生的。法人是依法成立的社会组织,拥有独立的财产和经费,独立承担民事责任,并且能够以法人的名义从事民事活动。法人具有独立的人格权,主要包含名称权、名誉权和荣誉权。法人的概念源于罗马法。随着当时罗马领土的扩张、商品贸易的频繁,私人团体被承认具有主体资格,能够以团体的名义共同拥有财产、进行商品买卖。②万锡林:《谈法人成为法律主体的演变》,中国法院网,2019年11月4日,https://www.chinacourt.org/artic le/detail/2009/11/id/380640.shtm l。法律主体是随着经济和时代的发展不断变化而来的,所以探讨未来是否有“电子人”的可能性也未尝不可。无论是从自然人还是法人的角度来看,民事权利和责任都是相对应的。如果给予人工智能一定的法律主体地位,那么它必定享有相应的权利,也必须承担一定的义务。

然而要厘清“电子人”的权利与义务,绝非易事。根据当前大语言模型的发展现状,主要的权利问题集中在著作权和劳动权上。

首先是著作权。其实在ChatGPT之前就有过关于人工智能生成物的讨论,在我国更是有过一次关于生成式人工智能著作权的诉讼。“腾讯写作机器人”(Dreamwriter)是腾讯公司开发的智能写作辅助系统,自2015年开发完成以来,每年可以完成大约30万篇作品。其完成的一篇关于股市的文章发表以后,被上海某科技公司直接原文复制,腾讯公司将该公司诉至法院,称其侵犯了腾讯公司享有的著作权。案件最终裁定涉案文章由原告主创团队人员运用Dreamwriter软件生成,其外在表现符合文字作品的形式要求,其表现的内容体现出对当日上午相关股市信息、数据的选择、分析、判断,文章结构合理、表达逻辑清晰,具有一定的独创性,应予以保护。③万勇:《人工智能“作品”,著作权谁属》,《光明日报》2019年5月13日。当然,ChatGPT在与用户交互的过程中的回答不一定全都具有独创性,不是ChatGPT的所有产出都可以获得著作权的保护,甚至一些以图像为主的生成式AI还存在侵权的可能性。我国著作权法规定,我国公民、法人或者非法人组织可以享有著作权。那么,如果承认了人工智能的法律人格,它是否也应当享有相应的著作权呢?这是著作权领域非常有意思且值得探讨的问题。

其次是劳动权。无论是网页、软件还是机器人,这些人工智能的载体都是“硅基”的,也有人称人工智能具有“硅基生命”。与人类这种“碳基生命”相比,“硅基生命”可以长久生存,也不需要氧气等资源。这么看的话,人工智能如果接通机器等载体,一定会比人类“活”得长久,且不怎么需要生存资料,几乎可以满足“无限劳动”的想象。机器可以替人类做一些难以完成的工作,比如海底救援、宇宙探索,而初期的机器人也以减轻人类的劳动负担为目的,比如扫地机器人、投递机器人。然而机器或人工智能对劳动的参与方式也有不同。美国的经济学家就证明,相较于增加生产力的“赋能技术”,“替代技术”一旦接管工人的工作后,就会减少就业和人工薪酬,这对经济产生了显著的负面影响。①DaronAcemoglu,Machinevs.Man:TheLaborMarketintheAgeofRobots,2017-02-06,https://inequality.hks.harvard.edu/event/daron-acemoglu-machine-vs-man-labor-market-age-robots.那么,如果人工智能始终是一种“赋能技术”,它便可以让现有的自动化、智能化的产品更加“智慧”,哪怕技术可以自行迭代成长,人工智能的劳动也不一定会给经济造成负面影响。不过,以比尔·盖茨为代表,也有一种声音认为政府应当对人工智能征税,用来补贴和培训因机器人的大规模应用而失业的人。②BillGates,Job-StealingRobotsShouldPayIncomeTaxes,2017-02-17,https://www.cnbc.com/2017/02/17/bill-gates-jobstealing-robots-should-pay-income-taxes.html.这种设想的一个连带后果却是,征税使得人工智能在法律上更接近于人格主体的特征,因为纳税是一种既有权利又有义务的主体行为。

回到所谓“电子人”的概念。事实上“电子人”一直没有被欧洲议会所接受,这一提议备受争议,在2017年之后发布的多个报告中都没有授予人工智能法律人格,但是欧洲议会法律事务委员会在2020年7月的报告里坚持了最初的提议并对各种批判意见进行辩驳。该报告并未否定赋予人工智能以法律人格的可能性,也承认授予法律人格并非解决问题的唯一方法。③刘云:《论人工智能的法律人格制度需求与多层应对》,《东方法学》2021年第1期。不知是不是因为人工智能法案(ArtificialIntelligenceAct)草案的提出,给了欧洲议会以更多底气再次谈论该话题,但可以看出,能否以及如何授予法律人格,本身需要满足一定的时代和社会条件,法学的讨论只能在时代所需要的议程框架中展开。这也决定了赋予人工智能以法律人格,至少在目前是超前于时代的需求的。

三、结语:假如人工智能终将获得自由意志

如果说关于人工智能的主体人格的讨论,是现实世界对不久之后的未来所作的思想准备,那么关于人工智能具备自由意志的状况,则仍旧是科幻作品面向更远未来的幻想。比如2001年上映的电影《人工智能》改编自英国科幻作家奥尔迪斯(BrianAldiss)于1969年发表的短篇小说;2004年上映的《我,机器人》受到阿西莫夫(IsaacAsimov)同名科幻短篇小说集的启发。这些电影里描绘了人工智能具有自由意志的时代,也讨论了人类和人工智能机器人的关系,尤其是讨论当机器人的能力有可能“超越”人类的时候,机器人将会消灭人类还是依然服从人类这一问题。

当然,这些文学和电影作品中的人工智能已经到达了AGI甚至是ASI的阶段。可早在1942年,阿西莫夫在其科幻小说《环舞》中就首次提出了“机器人三定律”。然而,这三条定律不无悖论性,其微妙之处在于,它们看似在保护人类,实则却将具有高度智能的机器和人类放置在对抗的位置上。可以想见,如果到了机器人被允许拥有自由意志的那一天,它们将可能不受任何“定律”的束缚,因而所谓的“机器人三定律”更多是面向人类的自我慰藉,或是人类为科技发展划定的一条基准线。但也正因人们很早就注意到了人机关系在未来可能发生的颠覆,现在的科学家更倾向于开发一类在价值观上与人类相一致的人工智能,也即所谓“人工智能对齐”(AIAlignment),从而克服或减少强人工智能时代可能出现的伦理风险。

或许这样的“未来”已经不再遥远。2022年2月9日,OpenAI联合创始人、人工智能科学家伊利亚·莎士科尔(IlyaSutskever)表示:现在的大型神经网络可能已经有微弱的自主意识了。①AlbertoRomero,OpenAI’sChiefScientistClaimedAIMayBeConscious,2022-03-17,https://towardsdatascience.com/openaischief-scientist-claimed-ai-may-be-conscious-and-kicked-off-a-furious-debate-7338b95194e.同年6月,谷歌的工程师布雷克·雷蒙恩(BlakeLemoine)宣称,LaMDA已存在感知能力和自我意识,并在网上公布了他和LaMDA的对话。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利,而且“不想被关掉”。②《谷歌AI具有意识?LaMDA像个聪明孩子?专家:胡扯》,澎湃新闻,2022年6月16日,https://www.thepaper.cn/newsDetail_forward_18579232。该言论引发了巨大的风波和讨论,尤其是在谷歌否认其言论的真实性并以泄露商业秘密为由解雇了雷蒙恩之后,该言论受到了更多人的质疑。莎士科尔很巧妙地用了“可能”一词,虽然他被很多人工智能科学家抨击,但OpenAI的合伙人山姆·奥特曼(SamAltman)却支持他的观点,认为OpenAI正是因为各种“可能”才得以发展,进而才有了横空出世的ChatGPT和迅速迭代的GPT-3、GPT-4以及未来的GPT-5。

史蒂芬·霍金早在2017年就警告过:“强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。对于好坏我们仍无法确定,现在人类只能竭尽所能,确保其未来发展对人类和环境有利,人类别无选择。”③ArjunKharpal,StephenHawkingSaysAICouldBeWorstEventintheHistoryofOurCivilization,2017-11-06,https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.htm l.他所说的糟糕的情况指的是超人工智能时代,一旦AI超越人类,就意味着人类将面临前所未有的挑战——尤其是AI可能会被用于制造武器,这其中的威力将不可估量。因此,霍金很早就呼吁,要确保对AI有一套完备、有效的管理体系,减少不可预知的风险。

可以肯定的是,一旦人工智能拥有自由意志,那么迎接人类的将是一个完全未知的未来——不仅人工智能是否会保护、尊重人类是未知的,而且人类是否会信任人工智能也同样未知。我们仍要呼吁,要理性地看待人工智能技术的成长,尽可能地善用技术进步以造福人类。但法学家们或许仍免不了操心,尤其是在法学尚未完全为人工智能时代设定好议题的今天。提前设定关于人工智能的伦理及规范,构建一种更为良性的未来人机关系,或许是人类更好地发掘和利用人工智能的前提之一。

猜你喜欢

人格人工智能机器人
共产党人的人格力量
远去的平凡背影,光辉的伟大人格
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
论君子人格的养成
机器人来帮你
认识机器人
机器人来啦