算法自动生成内容中侵犯名誉权问题的探讨
2020-02-24周静怡
□ 周静怡
一、困境体现:算法侵权问题提出的缘由
(一)算法自动生成技术概述
算法(Algorithm)一词最早由波斯数学家花拉子密提出。这时的算法主要指的是数学学科内的计算方式,当计算机科学与算法结合之后诞生了算法的新意义。目前,算法自动生成技术通常指的是运用人工智能相关技术通过搜集整合指定内容资料,根据使用者的目的,自动将相关的信息内容生成一条完整的信息。这一技术在新闻媒体以及一些大型社交平台中使用得比较普遍。例如在财经新闻、体育新闻领域,自动生成内容分发新闻已经是行业内的常规行为。
(二)名誉权的含义
名誉权是公民或法人享有的就其自身特性所表现出来的社会价值而获得社会公正评价的权利,是人格权的一种。人的名誉是指具有人格尊严的名声,是人格的重要内容,受法律保护。任何人都不得损害公民和法人的名誉。凡败坏他人名誉,损害他人形象的行为,都是对名誉权的侵犯,行为人应负法律责任。而在算法技术侵入新闻领域、社交领域之后,公民的名誉权也可能在不知不觉中被智能技术所侵犯。
在智媒时代,随着算法技术进入新闻生产与产出过程,算法技术涉及侵权的问题日益凸显。近年来,被曝光的关于算法产生的伦理问题频繁涌现。但目前国内针对算法自动生成技术侵权问题直接进行讨论的研究较少。而如今算法侵权频发,对此不应逃避,而应进行讨论、研究。
二、追责困境:责任主体是谁
(一)“电子人”主体地位探讨
“电子人”指向人工智能。“电子人”是拥有人类智能特征,具有自主性,以电子及电子化技术构建的机器设备或系统。关于电子人是否具有主体地位,多国出台了相关法律法规。2016年5月31日,欧洲议会法律事务委员会发布《关于机器人民事法律规则立法建议致欧盟委员会的报告草案》;2017年1月12日,草案由该委员会表决通过成为决议;2017年2月16日,欧洲议会通过该决议。其第59段建议,当对未来法律文件的影响进行评估时,应探索、分析并考虑所有可能的法律举措的意蕴。举措之一就是:从长期着眼为机器人创立特定的法律地位,以至于至少明确最精密的自主机器人拥有“电子人”地位,能够承担弥补其引发的损害的责任,并可能把“电子人格”适用于那些机器人自主决定或其他独立于第三方交互的案件①。
(二)算法工程师:算法歧视的制造者
关于算法侵权问题的产生,算法工程师难辞其咎。由于算法工程师是算法的设置者,也是算法价值观的输入者,算法所造成的一系列问题都跟算法工程师息息相关。但是,如何恒定算法工程师的过错是目前存在的困境。算法工程师固然拥有自己的价值观以及各种歧视偏见,但是并无能力预测算法技术最后生成内容的对错以及犯罪与否。其中就牵扯到实际恶意原则,该原则在1964年美国最高法院审理《纽约时报》诉沙利文案时确立。美国最高法院认为,所谓的真实恶意是指,明知这个资讯是错误不实的(knowledge that the information was false),或完全无视它是不是错误的(or with reckless disregard of whether it was false or not)②。但是在实施之中衡量算法工程师是否具有实际恶意比较困难。
(三)使用平台:把关人失位
算法自动生成技术通常依托于各大网站和APP,因此该技术的使用平台难逃其咎。作为面向公众的平台必须承担起社会责任,对算法生成内容进行筛选,必须符合情理,不能以伤害某人或某一群体的利益为代价。然而不管国内还是国外,使用平台都未能承担起应尽职责。例如2012年,一台机器反复称德国前第一夫人贝蒂娜·伍尔夫为妓女。违规系统是谷歌搜索功能中的自动完成功能。当用户在搜索栏中输入“bettina wulff”时,google(打算提供帮助)会根据其他用户常用的搜索结果在框中输入建议。在这种情况下,“贝蒂娜·伍尔夫妓女”这个词组出现在谷歌的算法中,并以各种语言呈现给世界各地的用户。伍尔夫起诉该公司生成内容对其形象具有负面影响,并要求在德国删除谷歌所自动完成的相应短语。同时,德国联邦法院要求谷歌对通过其自动完成服务侵犯德国原告的名誉和人格权承担责任。平台的把关人应该对算法自动生成的内容负责,而不能因为是自动生成而推卸责任。把关人的失位只会让平台公信力下降,在未来引起越来越多的司法纠纷。尽管此类案件中涉及的主体众多,但平台所应承担的责任是毋庸置疑的。
(四)分析总结
算法技术侵权问题涉及众多学界所关注的话题。首先,对于算法技术本身是否能够作为一个主体,并为其所犯下的错误承担责任,在学界是存在争议的。技术是否能够承担责任尚无答案,但在不久的未来也许技术本身也能为其过错接受惩罚。而算法工程师与平台背后的负责人抑或是把关人在此类侵权事件中恐将难以独善其身。算法自动生成内容源于算法工程师的价值观,融入了算法工程师的看法、想法。尽管是自动生成,也是包含了算法工程师的思想在内才能形成。平台负责人、把关人本应担负起平台所应承担的全部责任。面向大众提供的内容,公众平台理应使其符合社会主义核心价值观,坚持担负起社会责任,对不良信息、不实信息进行筛选把关,为受众提供一个良好清洁的网络环境。
三、解决困境:国内外算法技术管理制度的理论革新及反思
(一)国外相关法律条例
2016年,英国下议院科学和技术委员会发布《机器人与人工智能》,特别强调决策系统透明化对人工智能安全和管控的作用。世界科学知识与技术伦理委员会也发布了关于机器人伦理的初步草案报告,提出应当在机器人及机器人技术的伦理与法律监管中确立可追溯性,保证机器人的行为及决策全程处于监管之下③。
2019年4月10日,美国民主党参议员布克(Booker)和怀登(Wyden)联合提出了《2019算法问责制法案》(Algorithmic Accountability Act of 2019),试图对人工智能机器学习中的偏见和个人敏感信息使用问题进行规制。法案提出,联邦贸易委员会(Federal Trade Commission)应尽快制定关于高风险自动决策系统的评估规则,科技企业必须评估算法是否存在歧视性偏见,以及它们是否对消费者构成隐私或安全风险④。
在以上两个事例可以看出,不少国家都在对算法技术进行进一步的规制化管理,算法绝不是绝对的自由,不在法律管辖范围之外。国外近几年不断推出关于人工智能、算法等技术的管理条例,不光是为了未来的技术世界更加和谐,也是对世界范围的一种号召。技术是中立的,而技术人员不是;技术难以定罪,而相关人员可以。
(二)国内相关法律条例
依据《中华人民共和国产品法》第四十三条的规定,可以解决目前大多数因人工智能算法技术所造成的侵权案件。因产品存在缺陷造成人身、他人财产损害的,受害人可以向产品的生产者要求赔偿,也可以向产品的销售者要求赔偿。属于产品生产者责任,由产品销售者赔偿的,产品销售者有权向产品生产者追偿。属于产品销售者责任,由产品生产者赔偿的,产品生产者有权向产品销售者追偿。算法自动生成内容由平台运用所生产使用,而算法技术本身由算法工程师创造。算法工程师是生产者,而使用平台的则为销售者,都应对其产生的侵权问题承担相应的责任。
但目前,我国关于人工智能、算法等新技术的相应管理条例比较滞后,暂无直接对应的法律条文作为最终司法判决的依据。
(三)反思现存盲区
对国内外法律法规进行对比后可以发现以下几个问题。国外尽管对名誉权的保护力度以及重视程度非常之高,但是由于国情限制,难以使相应法律法规达到预期效果。以美国为例,与世界上大多数国家不同,美国不禁止或惩罚仇恨言论,也不强制删除虚假信息。美国各个州可以自行设置相关法律,难以形成统一的判决标准。
在国内,首先,我国法律处于滞后阶段,急需根据现存问题进行调查讨论解决算法等技术可能带来的问题,使得相关案件有法可依。其次,国人的维权意识普遍不高,使得法律形成的推动力不足。以国内公众人物为例,大多数时候,由于维权之路比较漫长,他们选择息事宁人,而普通受众则更为如此。最后,国内算法技术尚不成熟。目前常见的算法侵权问题主要出现于一些社交平台或聚合类网站;然而在未来,算法等技术日益发展,无人驾驶汽车或机器人服务员等新型技术产品将蓬勃发展。可以以英美等发达国家为参考对象,尽可能把相应治理条例实现前瞻性规划,把算法/人工智能分成更为细致的类型,制定出更具体的法律法规,以更好地适应发展。
四、突破困境:算法侵权问题现象的解决途径
(一)引入控制算法新技术
算法技术固然拥有一套比较复杂的生成环节,但随着时代的不断发展,控制算法并不是一件完全不可能的事情。从实际出发,人工控制算法并不太可能实现。由于算法技术本身比较复杂,一般的平台把关人或媒体工作者并不能轻松地承担此重任。而通过专业人员创造出新技术去进行合理控制,通过技术来控制技术,是目前比较好的方法。国外许多企业已经进行了一系列的尝试,例如2019年6月,微软公司与人工智能(简称AI)公平专家合作,修改并扩展了用于训练的Face API数据集。这是一个微软Azure API,用于检测、识别并分析图像中人脸的算法。通过新的肤色、性别与年龄数据,其能够将深肤色男性与女性的识别错误率降低至原本的二十分之一,并将女性整体的识别错误率降低至原本的九分之一⑤。2019年9月,谷歌公司推出了What-If工具,这是面向其TensorFlow机器学习框架的Tensor-Board网络仪表板中的一项偏见检测功能⑥。国内的算法自动生成技术使用平台可以效仿国外的一些进步性尝试,以减少侵权事件的发生。
(二)算法设计师的新闻专业性培养
作为算法的直接创造者,算法设计师对技术的了解固然毋庸置疑。但是算法设计师作为算法生成内容的价值体现,必须要经过一定的考核。算法设计师的综合素质、媒介素养都应该成为考核的重点内容。对算法设计师要进行一定时间的培训,达到规定要求,通过测试才能成为合格的算法设计师。这能够在一定程度上减少算法自动生成内容中包含歧视、诽谤的内容。同时,可以鼓励新闻从业人员学习算法、AI技术或者引入跨专业人才,这样能够更好地保证算法推荐内容的质量。
五、结语
算法等人工智能技术是目前的大势所趋,也是未来社会发展的必然趋势。尽管此类技术存在一些潜在的问题,但不容置疑的是,算法等技术为现代人类工作带来了许多便利。只要合理使用这些新兴智能技术,从多个方面进行正确的引导,算法等新技术将利大于弊。本文简要讨论了算法技术存在的一些侵权事实,以及通过列举国内外的相关法律条文,提出了更好使用算法技术的一些建议,旨在促进国内关于人工智能技术管理的法律法规的进一步完善。
注释:
①十项建议解读欧盟人工智能立法新趋势[EB/OL].腾讯研究院,2017-02-16.https://www.tisi.org/4811.
②搜狗百科.真实恶意原则[EB/OL].https://baike.sogou.com/m/fullLemma?lid=70011042&fromTitle=%E7%9C%9F%E5%AE%9E%E6%81%B6%E6%84%8F%E5%8E%9F%E5%88%99&mcv=64&pcl=373,211&sed=0&ml=0&sct=0.
③人工智能各国战略解读系列之六《英国人工智能的未来监管措施与目标概述》[EB/OL].腾讯研究院,2017-04-02.https://mp.weixin.qq.com/s/C6HirVTunsp0UMg3dlLGQ.
④互联网公司的定制推送会受限吗?美参院就人工智能算法展开讨论[EB/OL].界面新闻,2020-06-26.https://finance.sina.cn/2019 -06 -26/detail -ihytcerk9505867.d.html?from=wap.
⑤IBM停止人脸识别业务,AI在美遭遇两重天[EB/OL].计世网,2020-06-09.http://www.ccw.com.cn/ai/2020-06-09/15228.html.
⑥谷歌高管:人脸识别技术存在巨大社会风险[EB/OL].科技行者,2018-12-19.https://mp.weixin.qq.com/s/mJdNz_xR7g_gV96gXfyf6Q.