APP下载

个人信息保护规则与人工智能技术的法律冲突

2019-05-16高伊然

现代交际 2019年7期
关键词:区分个人信息决策

高伊然

摘要:数据、云计算、人工智能等技术的应用一方面便利了人们的生活,另一方面也对个人信息、隐私等提出了新的挑战。笔者以人工智能技术与个人信息保护之间的关系为视角讨论目前存在的理论争议以及实践中的难点。本文主要归纳了学界的共识和争议,并在结合实践的基础上指出了个人信息权在规制人工智能方面的现实问题;最终总结出在个人信息权制度构建中应当坚持注重个人信息权内部人格权属性与财产权属性,个人信息资源保护与利用之间的平衡。

关键词:人工智能 个人信息保护

中图分类号:D912 文献标识码:A 文章编号:1009-5349(2019)07-0053-02

人工智能快速发展并日趋成熟,并正在成为影响未来社会最重要的技术。我国也于2017年出台《新一代人工智能发展规划》,把人工智能上升为国家战略,并预计到2025年初步建立人工智能法律法规、伦理规范和政策体系。具体到引起社会普遍担忧的个人信息保護上,理论界争议不断,操作中也会面临很多现实问题。

一、价值冲突与平衡

立法就是一个价值衡量与选择的过程。在个人信息保护制度构建中,如何在合理保护个人信息与促进信息资源合理利用、保护人工智能等产业的发展之间寻找平衡点是一个基础性问题。

从学界关于“个人信息性质”的讨论之中,我们不难看出,个人信息作为一种新兴的权利客体,兼具人格权与财产权两种属性。一方面,其人格权属性强调个人信息保护的必要性。“个人信息”与个体密不可分,具有很强的人身专属性和依赖性,其他组织和个人能够通过“个人信息”追踪到某个特定个体;现代化信息技术也可以实现对个人碎片化信息的整合,随着信息质和量的累积,碎片化的个人信息逐渐形成个人的“人格剖面图”。另一方面,我们也必须认识到,现代信息技术的发展,大数据、云计算、人工智能技术的发展和应用又必须以数量众多的信息和数据为基础。同时,通过对数据的分析和处理,商家可以通过“个性化推送”“价格歧视”等方式获取商业利益。这些都体现了个人信息的财产价值,强调了个人信息在一定程度上是可以流通、使用并获得收益的。个人信息这种兼具两种权利属性的特征使得其既可以成为促进信息技术发展的重要资源,又可能为侵犯个人信息、隐私等不法活动提供便利。

从民众角度来看,近年来的“徐玉玉案”等个人信息泄露事件引起了社会大众的普遍恐慌,普通民众渴望国家着重对于个人信息进行保护。而对于人工智能等行业来说,个人信息过度保护不可避免会阻碍行业发展。海量的数据与信息是人工智能技术发展和应用的前提。而在“知情同意原则”“目的限制原则”等的要求下,人工智能技术的应用将会大大折扣。对于人工智能技术来说,其数据收集和自动化决策算法使得其可以一瞬间完成对个人信息的分析和利用,如果每次都需要经过信息主体的授权或同意,人工智能技术就失去了价值和意义。同时,算法的动态性也要求基于信息主体在收集时同意使用的基础上对于个人信息进行更加灵活和复杂的使用。

关于个人信息保护与利用之间的冲突,我国民法学界目前主张通过对个人信息进行区分来实现利益平衡,但就如何区分主要存在两种观点:

第一,“两重区分”规则。该观点主要以张新宝教授为代表,主张“建立‘个人敏感隐私信息的概念,在个人敏感隐私信息与个人一般信息区分的基础之上,通过强化个人敏感隐私信息的保护和强化个人一般信息的利用,调和个人信息保护与利用的需求冲突,实现利益平衡”。第二,“三重区分”规则,该观点以张平教授为代表,主张将个人信息区分为三个层次:与自然人人格属性密切相关的“隐私信息”、经过加工分析后可以定位到个人的“间接个人信息”,经加工后难以识别出个人的“加工信息”,强调“我国个人信息保护应当以信息处理匿名化为基点重新构造,以数据的不可追溯为核心”,对于不同层次的信息区别保护,区分其不同的价值。

二、对于人工智能技术进行法律规制的难点

除去人工智能是否应当具有法律主体资格,进而独立承担责任之外,目前来看对于人工智能侵犯个人信息权的法律规制还存在以下问题。

首先,对于人工智能实际操作阶段的透明度要求与商业秘密、知识产权等保护可能存在冲突。针对算法“黑箱”、算法暴政等问题,GDPR提出了“合法性、合理性和透明性”原则:对涉及数据主体的个人数据,应当以合法的、公平的和透明的方式来进行处理,其中“透明性”的要求是对于“渗透着价值和利益的数据收集方式具有较高的的隐蔽性,加上算法的‘黑箱使得这一决策自动化过程并非公开进行,不接受质询,提供解释,不进行救济,相对人无从知晓数据收集的程度、决策作出的原因”这一问题的回应。但是“决策自动化过程”应当如何公开?且不说复杂精密的算法难以理解,真正使得信息主体对其知情需要很高成本;这种决策过程实际上就是算法的运行过程,一旦要求将其公开,接受质询、提供解释,那么势必涉及对于开发者、使用者等主体商业秘密、知识产权等的侵犯。

其次,人工智能干预个人决策是否构成侵权的标准难以判断。人工智能干扰个人决策最典型的例子就是网络精准广告。基于对个人身份、爱好、年龄等信息,人工智能技术可以分析个人的消费习惯、消费能力等,进而主动对其进行个性化的广告推介。在此情况下,“侵权结果”就较为难以判断,也即网络精准广告推介的侵权结果,是出现了个性化的广告,还是这些个性化的广告打扰了个人的生活安宁、信息决策自主。基于多数人正在接受甚至依赖这些个性化信息推介服务的现实状况,将“出现个性化广告”作为侵权结果,惩罚范围过宽,甚至会影响到人们的便利生活。而若以后一种判断标准,“个人生活安宁”“信息决策自主”又带有浓重的个人主观主义色彩,判断标准过于模糊,一定程度上来讲并不利于个人信息的保护。

三、结语

人工智能技术飞速发展,正在以不可逆转的趋势改变着人们的生产和生活,对于法律也提出了更高的要求。本文通过分析人工智能技术与个人信息保护之间的价值冲突,认为应当通过对个人信息进行区分、对不同性质的信息给予不同程度的保护的途径来实现“保护”与“利用”二者之间的平衡。同时着眼于人工智能技术的特征,从实践的角度出发,分析现有个人信息保护的理论与实践,在高度精密复杂的人工智能技术中实现个人信息保护的难点。通过以上两个方面的分析,旨在探讨在人工智能背景下,个人信息相关立法应当关注的问题,为个人信息保护制度的构建提供思路。

参考文献:

[1]张新宝.从隐私到个人信息:利益再衡量的理论与制度安排[J].中国法学,2015(3).

[2]张平.大数据时代个人信息保护的立法选择[J].北京大学学报(哲学社会科学版),2017(3).

[3]齐强军.论我国个人信息保护立法的权利基础[J].青海社会科学,2010(1).

[4]齐爱民.论利益平衡视野下的个人信息权制度——在人格利益与个人自由之间[J].法学评论,2011(3).

[5]张新宝.我国个人信息保护立法主要矛盾研讨[J].吉林大学社会科学学报,2018(9).

[6]Lepri B,Staiano J,Sangokoya D,et al.The Tyranny of Data? The Bright and Dark Sides Of Data-Driven Decision-Making for Social Good//Transparent Data Mining for Big and Small Data,Springer International Publishing,2017:3-24.

责任编辑:张蕊

猜你喜欢

区分个人信息决策
保护死者个人信息 维权要不留死角
敏感个人信息保护:我国《个人信息保护法》的重要内容
浅论非法使用个人信息的刑法规制
主题语境九:个人信息(1)
做决策也有最佳时间段
决策大数据
区分“我”和“找”
诸葛亮隆中决策
区分
《管理就是决策:第一次就把决策做对》