APP下载

人工智能技术应用中风险的法律防控

2022-11-13马铁红

对外经贸 2022年8期
关键词:道德风险个人信息人工智能

马铁红

(西北师范大学 法学院,甘肃 兰州 730070)

人工智能技术(Artificial Intelligence,简称为AI),是通过技术手段对人类智商与情商、能力与才能的研究与效仿。目前学界基本一致认为:人工智能是“人类制造出来的机器所呈现出的智能,与自然进化而来的人类智能相对应”。

1956年,“人工智能”这一学科范畴在DARTMOUTH 学会上被首次提出时,仅被视为计算机科学的一个分支。经过六十多年的研发,其已经从实验室阶段进入到越来越广泛的实际应用领域,成为人类大脑与社会实践紧密结合的复杂技术系统。机器人、人脸识别、无人驾驶、刷脸支付、AI 换脸等新技术成果的不断应用,一次次刷新人类对该项技术的认知,其对人类的贡献与作用也日益显著。人工智能的大规模运用把人力从简单、反复或危险的工作中解放出来,在节约人力资源的同时提高了工作效率,也为人类生活带来了极大地便捷。但人工智能技术在应用过程中所产生的风险也不容忽视。

一、人工智能技术应用中的风险

人工智能虽然能够像人一样进行思考和行动,但人工智能毕竟不是真正意义上的人,一个具有完全民事行为能力的自然人都有犯错甚至违法的可能,作为人工制造品的模拟人类思维的人工智能,既可能存在设计或制造方面的瑕疵,在应用中也可能存在无法预知的风险。人工智能应用中的风险是指在人工智能技术应用过程中对国家、社会或个体可能产生的负面影响。具体而言,主要有以下几类。

(一)侵犯个体隐私或商业秘密

人工智能依赖云计算实现收集、存储和分析海量数据,包括个人的基本信息、身份信息、生物信息等,涉及隐私信息被侵犯的可能。在信息化时代,对高质量信息数据的获取及控制与反控制已成为经营者之间竞争的关键领域。云计算的出现又推动了人工智能技术发展,但与此同时,在经营者挖掘开发大数据的过程中,对于个人隐私或企业商业秘密的侵犯也是人工智能技术应用中不可忽视的首要风险。人工智能技术支撑下的电子设备通过记录使用者的个人信息、使用习惯及偏好,力图为用户提供更好的服务及更舒适的用户体验,本来是应当提倡的,但现实是:大量使用者的数据信息会被收集、汇总并传输到云端,一旦传输系统出现漏洞,大量的个人隐私或企业商业秘密就会被泄露,传输过程中信息也有被截获的可能。大数据时代的来临,意味着个人隐私权被侵犯的可能性大大增加。

(二)危害人身权、财产权及信息安全

人工智能技术的运用存在危害人身及信息安全的可能,应考虑以下三个方面。

1.技术本身的缺陷问题

近年来,人工智能技术虽然有了突飞猛进的提高,但其在应用中仍然出现危及人身或财产安全的事故。虽然“算法决策”(基于数据和算法的智能化认知与决策)因其客观、高效、精确的优点被广泛运用,但是算法决策,归责主体难以确定,同样会危害信息安全。

2.技术的滥用问题

人工智能技术具有非常强大的自我学习能力,因此其对数据的需求是无穷尽的。为了完善其服务能力和系统性能,算法将极其深入和精细地对数据进行挖掘,这就可能对某些受保护信息的安全造成危害。如近年来频频出现的“网络爬虫”现象就属于游走在合法与非法收集信息的灰色地带,“AI 换脸”则涉嫌侵犯他人的民事权利,甚至涉嫌犯罪。另一方面,人工智能系统也有可能被“黑客”利用,致使受保护信息被破坏。我国刑法中有非法侵入计算机系统罪和破坏计算机信息系统罪的相关规定。但其规定的犯罪主体为自然人。被利用的人工智能系统所实施的上述罪名应当如何定论,依然是立法部门要重点关注的。

3.技术开发者管理问题

人工智能的技术水平突飞猛进,这对管理者的管理能力、管理水平提出了更高的要求。若人工智能的开发者对技术系统的安全监管不到位,该系统极易被入侵或利用,危害人身、财产或公共安全。

(三)人工智能主体身份

人工智能技术被广泛使用,越来越多地代替人类作出决定和行动,其智能性也越来越高,越来越接近人类。因此,人工智能必定要受到人类社会的法律、伦理道德的约束。根据现有的发展速度和规模,很可能在不久的将来,将会有越来越多的保姆机器人、医疗机器人、宠物机器人等走进千家万户。这些机器人将拥有更高的智能水平,那时我们将如何看待这些高智能体呢?我们是将它们与人类等同看待,还是仅仅视它们为冷冰冰的机器呢?它们与人类所饲养的宠物相比地位又将如何呢?它们能否获得法律、道德上的主体地位及相应的权利呢?如何用法律上、道德上的义务来约束它们。

(四)人工智能的道德风险

人工智能虽然具有一定的智能性,但其并非生物,不具备逻辑思维能力,因此永远不可能完全代替人类的情感和思维。无论人工智能技术发展到何种水平,都不是该技术本身的能力,而是人类通过研发赋予该技术的能力。作为人类科技发展的产物,人工智能自身并无善恶之分。分析人工智能的道德风险,其根本原因在于人类设计人工智能的价值取向和运用方向的选择。从宽泛的角度讲,人工智能的所有风险都可以归入道德风险之列,本文所探讨的道德风险仅指人工智能在恪守伦理规则方面的有限性风险。对人工智能潜在的道德风险进行合理地干预与监督,是十分有必要的。

二、人工智能风险的产生原因

(一)人工智能技术自身的不完善

任何新技术从被发明出来到进入实际应用阶段,都需要经历不断发现问题、不断排除风险、改进与完善的过程。人工智能技术也是如此,不可能存在没有风险的人工智能技术,人类只能尽最大努力去防控技术风险,但不可能彻底消除风险。

(二)经营者对经济利益的过度追求、人工智能存在“合法”的道德风险

作为人工智能开发、应用、维护者的企业,通过人工智能技术谋求经济利益最大化、经营成本最小化。

人工智能这个新技术产生之初,政府如同对待其他新技术一样,重点是人工智能技术的安全性、该技术带来的工作便捷、产生的经济效益等。

(三)普通用户无力应对人工智能技术应用中的问题

在日常生活中,便捷高效的人工智能提供服务往往很受民众的青睐,至于人工智能使用中会不会产生相应的风险,很多用户并未认真考虑过这个问题。

三、人工智能应用中风险的法律防范

人工智能技术发展迅猛,随之而来的新问题也越来越多,我国政府已经将人工智能技术纳入监管的视野。自2020 年下半年以来,监管部门对平台企业滥用人工智能技术进行“大数据杀熟”等不当行为进行了治理与规范,取得了一定的效果。但还应当将关于人工智能的规范化治理立法化、常态化,这样才能有效防范风险,更有利于人工智能技术的良性发展,造福人类。

(一)健全现有的法律体系,完善立法中有关人工智能的内容

针对人工智能的立法理念也应当符合时代特征及新的要求,立法中应当明确规定人工智能技术的开发、使用、维护均应当以人为本,以社会主义核心价值观为技术应用的导向,这应当是人工智能立法的宗旨。在这个宗旨指导下的立法,应对人工智能应用中的新问题、新挑战。

在关于人工智能的专门法律中,应当规定人工智能监管机构及其职权与责任,明确界定人工智能主体的权利、义务,确定责任主体应当承担的责任。

其次,因人工智能技术涉及到复杂的技术问题,若立法机关认为胜任立法工作尚有难度,还可以组织专家听证会或将部分立法权限授予其下属部委或司法机关、行政机关。

再次,完善、充实现有法律、行政法规及规章中有关人工智能的相关条文、规定,使之能够与时俱进,能够应对实践中出现的争议性问题。目前,相关部门已经做出了相应的规划,中共中央,国务院在今年9 月22日发布的《知识产权强国建设纲要(2021-2035 年)》中就明确提出“加快大数据、人工智能、基因技术等新领域新业态知识产权立法。”

最后,法律由民意产生,通过立法对人工智能技术的风险监控也应当符合民意,因此在立法中应当广泛征求意见,尤其是人工智能技术领域及法律领域专业人士的意见很有必要。

(二)制定相关单行法律,加强对人工智能的依法规范

作为民事活动的基本法,《民法典》的重要性无须赘述,但《民法典》还需要相应的配套性单行法律才能更好的发挥作用。比如个人信息保护涉及多个不同的法律部门,《民法典》中的相关规定为我国个人信息保护制度奠定了基础,但在具体操作中还存在诸多需要进一步明确的内容,出于立法技术的原因,这些内容在《民法典》中就只能做概括性规定或未进行规定。例如关于个人信息的“被遗忘权”就属于此类。2016 年4 月欧盟的《通用数据保护条例》(简称GDPR)第17 条明确提出了被遗忘权,这是该权利进入立法保护的开始。我国《民法典》第1037 条规定了自然人对个人信息数据的删除权,但该法条规定的适用情形属于“原罪型”模式,并未涉及自然人能否申请屏蔽或删除涉及其本人的真实但无用或负面的个人信息,而主张行使被遗忘权的主要目的就是要删除或屏蔽这类信息。2021 年8 月20 日颁布的《个人信息保护法》第21 条第二款规定:受托人应当按照约定处理个人信息,不得超出约定的处理目的、处理方式等处理个人信息;委托合同不生效、无效、被撤销或者终止的,受托人应当将个人信息返还个人信息处理者或者予以删除,不得保留。该规定就是对《民法典》中关于“被遗忘权”规定的补充。可以预期的是,最高人民法院将会结合审判实践出台相关司法解释,对个人信息保护的法律适用中出现的问题进行规范,与上述立法共同构成全方位保护个人信息保护的多元法律体系。今后,将会有诸多涉及人工智能的单行立法逐步出台,与《民法典》共同为该行业的健康有序发展保驾护航。

(三)在人工智能类侵权案件中引入惩罚性赔偿,加大侵权者的侵权成本

在现实生活中,由于诉讼成本高、举证困难等原因,一些涉人工智能类纠纷中的被侵权人放弃了维权。查阅此类侵权案件,会发现侵权者较常见的民事责任是赔礼道歉、停止侵害、消除危险、消除影响、恢复名誉以及赔偿损失。如果侵权者违法成本很低,则无异于鼓励侵权者继续实施侵权行为,并且会导致更多的侵权者效仿。因此,在处理人工智能类侵权案件中,应当对设计开发者、设备制造者、使用者因故意或重大过失侵害他人人身或财产权益的行为适用惩罚性赔偿,让此类违法、侵权者付出相应的代价,提高其违法成本,有效遏制此类行为,并对其他违法者起到警示作用。目前,我国《消费者权益保护法》、《食品安全法》中设立了惩罚性赔偿制度,已经有了明显的社会效果。

(四)在审理人工智能类侵权案件中采用举证责任倒置原则

在通常的民事诉讼中,基本上适用“谁主张,谁举证”的证据规则。但在人工智能类侵权的责任认定方面,应采用举证责任倒置则更为公平。首要原因是人工智能技术复杂,且出于保护专利及商业秘密的原因,相关数据被合法的控制在设计者、制造商的手中。在发生侵权事故后,因用户对侵权产品一无所知,无法对生产商有无过错做出任何指控,从而导致受害人维权困难。其次,由于人工智能类侵权行为具有基于技术手段的隐蔽性,在此类侵权案件中,受害人在侵权商品相关的技术、信息方面在均是弱势的一方,让受害人负责举证侵权人存在过错是比较困难的,如果让人工智能的开发者或设备的生产者承担举证责任,将更有利于维护受害人的合法权益。最后,从促进行业规范发展的角度来看,采取举证责任倒置在一定程度上也能够促使人工智能的开发与制造者采取更为谨慎的态度进行技术研发与应用,在人工智能技术的安全性、稳定性、可靠性方面提高水平。

(五)建立集体诉讼机制

在信息化的大工业生产时代,基于人工智能技术的产品与服务大规模的开发出来并投入市场后,一旦发生侵权行为,通常是一批人或某些群体的权益都受到侵害。当某类人工智能侵权行为的受害者众多时,若仅靠单个个体通过单个民事诉讼的途径进行维权,这种力量非常有限且维权成本高,诉讼风险也大。因此,有必要在人工智能类侵权纠纷的解决中建立集体诉讼机制。众多受害人共同委托专业律师、聘请专家辅助人协助进行维权,既可以降低诉讼成本,又能够有效地达到维权目的,同时也提高了法院的审判效率,收到更好的社会效果。

(六)采取多种措施将“道德嵌入技术中”,防范人工智能的道德风险

人工智能技术当然会带来一些新的伦理问题,在设计之初就应该预测和评估某个人工智能产品可能引发的道德风险。我们也可以通过立法强制性要求在人工智能技术的开发设计中植入社会公认的伦理道德,让人工智能所实施的行为符合人类通行的伦理规则。从这个角度看,现行的人工智能所存在的道德风险实际上是开发设计者在“预置程序中植入的风险”而非人工智能技术自身的风险,技术本身是中立的,技术自身并不会进行任何道德判断,设计者对人工智能技术的“道德预置”决定了人工智能应用中的道德水准及价值取向。例如,现行的交通规则要求机动车驾驶人在路口“避让行人”,否则会受到行政处罚。如果在无人驾驶机动车的控制程序中也“植入”在路口“避让行人”的程序,则无人驾驶车辆在路口不避让行人的道德风险就可以有效防范,甚至无人驾驶机动车在路口避让行人方面可能比有人驾驶机动车还规范、彻底。可见,通过立法对人工智能技术应用中的风险进行防控时,重视并监督人工智能技术开发中锲入伦理因素是可行且十分必要的,否则,人工智能技术的应用越广泛,对人类社会及人类自身带来的损害将越严重。

在人工智能技术的道德风险监控方面,英国在2016 年10 月发布了《机器人技术和人工智能》报告。报告起草中召集了人工智能和人工智能机器人领域诸多专家和研究者一同讨论了人工智能技术的发展将会带来的道德风险,强调要让运用人工智能技术的决策系统更加透明化;让算法造成的偏见最小化;对于人工智能的检验更加制度化;通过对数据使用的限制保护隐私权。建议我国应当设立人工智能技术伦理委员会或咨询小组,为政府在此类决策方面提供意见和建议。

(七)政府应当制定人工智能产品行业标准

运用人工智能技术所生产出的产品要想符合社会需求,为人民大众所需要,就必须具有一定的安全性和可靠性,这样才能赢得信任。因此必须建立一整套人工智能产品的行业标准,在产品投放市场以前,要经过多次实验,发现问题并不断完善,提高人工智能产品的安全系数,使其符合行业标准,让人民群众在使用人工智能产品的过程中心里更踏实。当人工智能产品不符合行业标准时,开发者应当承担必要的民事或行政责任。2021年8 月20 日,由工业和信息化部提出、全国汽车标准化技术委员会归口的GB/T 40429-2021《汽车驾驶自动化分级》推荐性国家标准由国家市场监督管理总局、国家标准化管理委员会批准发布(国家标准公告2021 年第11 号文),将于2022 年3 月1 日起实施,这是中国自动驾驶行业标准制定的开端。今后,将会有更多的关于人工智能的标准不断出台。

(八)政府出台措施,规范算法的运用、规范数据管理

在运用人工智能技术进行算法决策的过程中,首先要对算法的开发者进行规范,尽量降低算法开发过程中所加入的主观因素,使算法结果更具有客观性。其次要增加算法过程的透明性,取消算法“黑箱”的存在,提高算法决策结果的可追溯性。最后还要使算法结果所造成的道德责任明确。这样才能使算法的运用更符合社会价值观念,符合伦理道德标准。同时,政府还应当强制性的要求经营者规范人工智能应用中相关数据的存储、应用及保密。2021 年9 月 16 日,我国工信部发布了《关于加强车联网网络安全和数据安全工作的通知》,其中最重要的规定就是,所有车联网系统的相关网络日志,并提供监管机构随时调用审查,留存日期不得少于6 个月。表明政府已经开始重视并规范人工智能应用中的数据管理问题。

[注释]

①2018 年5 月25 日,欧联颁布《通用数据保护 条 例》(General Data Protection Regulation,简 称GDPR),其前身是欧盟在1995 年制定的《计算机数据保护法》。

②《中华人民共和国民法典》第1037 条:自然人发现信息处理者违反法律、行政法规的规定或者双方的约定处理其个人信息的,有权请求信息处理者及时删除。

猜你喜欢

道德风险个人信息人工智能
如何保护劳动者的个人信息?
个人信息保护进入“法时代”
警惕个人信息泄露
2019:人工智能
人工智能与就业
数读人工智能
去哪儿网服务供应链道德风险约束机制模型
下一幕,人工智能!
博弈论视角下的建筑工程外包道德风险
个人信息保护等6项通信行业标准征求意见