智能信息系统的隐私保护问题研究
2022-03-07李传军
文章编号:1673-9973(2022)01-0038-05
摘要:智能信息系统是运用人工智能技术的信息系统,可以对信息进行智能分析,实现信息挖掘,从而提升信息的价值。智能信息系统面临的主要挑战在于如何能够在使用个人数据的同时,确保个人身份信息和个人隐私得到保护。智能信息系统隐私权保护是一项系统工程。国家和政府应当在保护个人信息方面更加积极有力。司法机关在保障公民隐私权方面扮演着平衡各方利益的角色。保护公民隐私权,应当强化技术创新。互联网企业应承担起个人数据保护的主体责任,加强自我约束。社会组织收集个人信息不能超过必要的限度与合目的性。个人隐私权遭受侵犯时应积极主动地运用法律捍卫自己的合法权益。
关键词:智能信息系统;隐私权;个人信息保护
中图分类号:TP309文献标识码:ADOI:10.13411/j.cnki.sxsx.2022.01.006
Research on Privacy Protection of Intelligent Information System
LI Chuan-jun
(School of Public Administration and Policy,Renmin University of China,Beijing 100872,China)
Abstract:Intelligent information system is an information system using artificial intelligence technology, which can intelligently analyze information and realize information mining, so as to enhance the value of information. The main challenge for intelligent information systems is how to use personal data while ensuring that personally identifiable information and personal privacy are protected. The privacy protection of intelligent information system is a systematic project. The state and government should be more active in protecting personal information. The judicial authority plays a role of balancing the interests of all parties in ensuring the realization of citizens’ right to privacy. To protect citizens’ right of privacy, we should strengthen technological innovation. Internet enterprises should assume the main responsibility of personal data protection and strengthen self-discipline. Social organizations should not collect personal information beyond the necessary limit and purpose. When personal privacy is violated, we should actively use the law to defend our legitimate rights and interests.
Key words:intelligent information system; rights of privacy; personal information protection
一、智能信息系統中的道德和隐私问题
进入21世纪以来,信息技术发展日新月异,但是科技是一把双刃剑,不可避免地产生一些问题,其中信息伦理就是一个引人关注的问题。伦理学和信息技术的讨论由来已久,可以追溯到现代计算机技术的早期。20世纪中期,控制论创始人诺伯特·维纳(Norbert Wiener)就提出,计算机发展可能会引发伦理问题。1976年,美国学者瓦尔特·曼宁(Walter Mane)首次提出“计算机伦理学”这一学科名称。随着信息技术的发展,又出现了外延大于“计算机伦理”的“信息伦理”这一概念。
智能信息系统是运用人工智能技术的信息系统,可以对信息进行智能分析,实现信息挖掘,从而提升信息的价值。浏览器的搜索引擎、百度翻译、带有GPS跟踪功能的智能手机、智能机器人、人脸识别系统等都属于智能信息系统。智能信息系统是信息和通信技术的一个子集,因此,许多适用于信息和通信技术的伦理问题也适用于智能信息系统。在讨论信息和通信技术伦理时,经常涉及隐私和数据保护问题,使得这一问题成为最突出的问题。除此之外,还有许多其他问题也经常被讨论。这些问题包括用户的自主性、用户身份、数字鸿沟、安全性等等。
伦理问题往往是复杂的,会产生意想不到的后果。例如,在预测性治安系统中采用人工智能算法所关注的是犯罪发生的地点和时间,以便能够及时向这些地区部署警力,努力在犯罪发生之前预防犯罪。这种算法的使用会引发一些伦理问题。警方将从这些热点地区逮捕更多的人,因为在这些地区部署了更多的警察。这种维持治安的做法可能会改变执法资源的总体使用,其方式可能是不可取的或次优的。
许多专家指出,算法反映了创造者的偏见和思维定式,即使这些偏见和思维定式并非有意为之。Facebook进行了一项臭名昭著的实验,通过操纵新闻源来让一些用户所获取的主要是负面消息,而另一些用户主要获取正面新闻,看看它如何影响用户随后分享的内容。结果它因为没有事先通知用户而受到了惩罚。2022年2月第36卷第1期李传军:智能信息系统的隐私保护问题研究Feb., 2022Vol.36 , No.1
公共行政2022年2月第36卷第1期李传军:智能信息系统的隐私保护问题研究Feb., 2022Vol.36 , No.1
公共行政
算法不仅通过基于广泛分析的目标广告来操纵消费者的行为,而且也在操纵选民的意图,利用数据分析建立个人的详细资料,预测他们可能如何投票,并向不同的选民讲述不同的事情。有人担心,尽管算法和人工智能有着不可否认的好处,但它们带来的负面影响不仅会引发道德问题,而且会威胁到民主本身。有人甚至发出了这样的疑问:“民主会在大数据和人工智能中生存吗?”破坏民主的方式有很多种,个性化信息系统在人们周围制造了一个“过滤泡沫”,一种供人们思考的数字监狱,从而对民主构成了威胁。
智能信息系统的发展可能会加剧上述问题,但同时也提出了全新的问题。在这些问题中,人们可以发现算法决策中隐藏的偏见。政策制定者担心责任问题以及新技术导致大量人员失业的实际影响。
智能信息系统必须有数据支撑,否则就成为无源之水、无本之木。而智能信息系统所使用的数据也包括个人数据,这就有可能造成对个人隐私权的侵犯。因此,保护这些数据是避免负面后果的重要步骤。欧盟《通用数据保护条例》(GDPR)明确指出了智能信息系统可能产生的影响。与安全信息系统相关的新功能包括违规通知、巨额经济处罚、数据保护影响评估、隐私设计以及所谓的被遗忘权。英国计算机协会、国际计算机协会(ACM)和电气与电子工程师协会(IEEE)等机构已经制定了旨在解决伦理问题的道德准则和规范。这说明,智能信息系统的出现为其中一些机构重新思考其立场提供了动力。
智能信息系统的发展将导致一些完全可预见的伦理问题,其中许多问题可以解决。然而,未来并不是完全可以预测的,智能信息系统可能会产生一些意想不到的后果。正如谚语所说的,“慢下来,让灵魂跟上我们的脚步”,未来可能会出现这样的情况:尽管我们尽了最大努力,但包括人工智能和大数据分析在内的新技术将导致道德问题,我们将不得不回过头来处理这些问题。尽管缺乏完美性,但我们认为,接受挑战并积极参与智能信息系统的隐私和道德规范是明智的,因为另一种选择是对发生的事情袖手旁观,一旦出现问题再当“救火队员”。毫无疑问,后一种做法的成本更为高昂。因此,我们应积极主动塑造智能信息系统,而不是等待它们来塑造我们。
智能信息系统有两大关键技术:一是大数据技术,二是人工智能。大数据技术的普遍使用,扩大了数据收集的范围,加快了数据处理的速度。同时,人工智能对于大数据的分析,使得个人隐私暴露无遗。数据隐私和安全问题属于数据道德的范畴。智能信息系统面临的主要挑战在于如何能够在使用个人数据的同时,确保个人身份信息和个人隐私得到保护。
智能信息系统是在一个我们称之为“赋能技术”的环境中形成和发展的。与传统的个人信息采集方式不同,智能信息系统通过各种智能端口在用户不知不觉的情况下收集了大量的个人信息,用户更不知道这些信息将流向哪里。比如手机解锁系统会收集用户的指纹和面部信息,用户并不知道智能信息系统收集了这些信息之后会用在哪些地方。智能信息系统对于用户来说是一个黑箱,当用户授权给智能信息系统之后,相当于把自家大门的钥匙交给了智能信息系统,这种信任使得智能信息系统获得了用户大量隐私信息。智能信息系统具有自主学习的能力,从而可以根据分析整合用户信息以获取用户的隐私。比如,聊天机器人就具备心理分析能力,能够在与用户的对话中获取用户不会轻易透漏的隐私信息,甚至还能够通过算法设计诱导用户说出个人隐私。在大数据技术的支撑下,智能信息系统越来越多地为人们提供更加便捷的日常服务,通过如扫地、做饭、聊天等服务进入个人私密生活空间。相应地,智能信息终端会将用户的个人隐私信息记录下来。随着人工智能学习能力的提高,智能信息系统通过运用大数据分析技术,将看似杂乱无章的信息系统整合,从而获取大量用户隐私信息。而个人用户在使用智能信息系统时,很难将个人信息完全从智能终端以及网络数据库中删除。这些个人信息随着智能信息系统所有权或使用权的流转,会在网络空间中传播,从而使个人隐私受到严重侵犯。对于专业人士来说,通过智能信息系统中收集和存储的个人信息,完全可以知悉个人的所有隐私。如果说在网络发展初期人肉搜索给个人隐私带来的是一种困扰,那么,在大数据和人工智能背景下,个人隐私可能会荡然无存,每个人都被迫在网络上“坦诚相见”。智能信息系统收集个人信息远远超过必要的范围,这意味着加强个人信息保护的任务更加繁重。
大数据时代,数据成为创新发展的重要驱动力,个人信息也往往被视为向用户服务而获取的利息,客户数据成为商业资产。智能终端的用户完全没有意识到自己的个人信息已运行于智能信息系统之中,成为人工智能经济的重要信息资源。但个人隐私也面临着隐忧。智能信息系统能够根据既定个人信息(如购物记录、个人爱好、所到地点等)识别出某一特定自然人。甚至有些个人信息(例如网站浏览记录、行车轨迹等)本人未必清楚,但是人工智能依然能够根据这些信息识别出某一自然人。个人信息能够被利用的前提是必须以某种形式固定存储于特定介质或网络数据库中。比如人脸识别系统必须将真实的人脸与已经存储的人脸数据库中的记录进行比对,从而实现快速核验。在网络社会,几乎一切信息实现了电子化,个人信息也不例外。传统条件下的纸质个人信息难以适应信息高度流动的时代。智能信息系统对个人信息的处理过程,就是挖掘其潜在价值的过程。人工智能物是智能信息系统收集个人信息的重要来源,比如扫地机器人、苹果手机等,只要对其进行操作,个人信息就会被收集。虽然有关法律对于收集用户信息要求以用户同意为前提,但是从技术上来讲,智能信息系统收集用户信息完全可以越过用户同意的步骤。为了保护用戶的个人信息,必须在法律层面对这种行为进行规范。人工智能相关法律应当规定,智能信息系统获取用户个人信息必须征得用户明确的同意,而不是简单的格式条款,更不能强制用户同意。
二、智能信息系统的隐私权危机
正如前文所述,人工智能和大数据技术是智能信息系统的两大关键技术。大数据技术将海量数据汇集起来,人工智能则对这些数据进行智能化处理,二者正在逐步融为一体[1]。人工智能的基础是大数据,其运行要依赖数据的收集、分析和利用,如果没有数据的支撑,人工智能系统特别是智能信息系统就无法运行。大数据中有相当大份额是个人信息,个人信息对于大数据及人工智能的重要性不言而喻[2]。大数据则依赖于数据采集。如果对数据采集没有有效规范,必然造成对个人隐私权的侵犯。近年来,信息通信技术的发展对隐私权构成了挑战,特别是随着大数据、物联网、云计算、移动通信、社交媒体等新技术的普遍应用,政府和企业大规模、系统性地收集、利用和存储个人数据,对公民的个人隐私保护形成了更大的沖击。在一些国家,由于执法机构和情报部门对公民实施监控,更使得公民的隐私权成为奢侈品。[3]在大数据技术与人工智能技术结合下的数据收集方式,不再是传统条件下由信息主体个人填报,而是由信息设备经授权自主提取,从而使得信息控制者比信息主体能够更深入地了解信息主体,从而实现对信息主体的“画像”[4]。然而,信息主体并不了解自己的授权使得信息控制者获取了哪些信息,有些隐私信息也被“合法”地获取了,因为很少有用户能够详细阅读授权协议。即便专业人士详细阅读授权协议,也只能要么同意授权让渡自己的隐私权而获得相关服务,要么不同意授权而无法使用其服务,于是“一键勾选”便成为用户放弃隐私权的便捷途径。人工智能系统对个人信息的过度挖掘是隐私权受到侵犯的主因,人工智能的安全和隐私问题日益凸显[5]。
大数据时代,世界成为透明化的世界。随着科技进步、产品升级,视频摄录设备趋于小型化、高清化、隐蔽化,无形中也给偷拍偷录等违法行为以可乘之机。一些不法分子将摄像头隐藏到日常生活物品中,肆意窃取他人隐私,甚至在网络空间分享、传播偷拍内容[6]。数据的高速流动与网络互联,产生了严重的隐私危机[7]。在大数据背景下,个人信息的保护和利用之间的关系如何平衡是一个难点。
在信息时代,信息严重过剩,每天狂轰滥炸的信息令人不胜其烦,其真假难以甄别。而且,智能设备给人们生产生活所带来的便利也让人难以割舍。很难想象,现代人有谁能够做到一整天不接触手机等智能设备。正因如此,人们对于个人隐私信息的防护意识越来越淡薄。商家则运用大数据技术和人工智能,收集用户的隐私信息,运用一定的人工智能算法进行精准营销,甚至一些无良商家运用大数据技术进行杀熟,熟客反而比新客要付出更大的代价。上述问题均凸显了在智能信息系统发展中价值缺失所导致的严重后果。
大数据时代,隐私作为公民个人权益与国家公共利益存在着价值冲突。隐私的本意是对个人信息的不公开。然而,有学者认为社会秩序的获得以信息的公开为前提,而隐私权的存在则意味着个人信息对公共领域的屏蔽。在打击恐怖主义和国家安全的诉求下,隐私权往往难以被认可为可以与更为民主的公共利益、国家安全等利益相匹敌。隐私权逐步沦为一种极为脆弱的价值观。近年来,随着网络信息技术的发展,隐私权问题日益凸显。2021年“3·15”晚会上曝光了“个人简历泄露”“人脸识别漏洞”等隐私权被侵犯的案例[8]。多家企业利用安装的摄像头收集用户的面部信息,并利用大数据技术分析用户是潜在的购买者,还是询价者,从而采取有针对性的营销策略。据2020年11月的相关新闻,圆通公司多位快递员将获取的40万条用户个人信息进行非法售卖。谷歌、Facebook等互联网巨头也曾出现内部员工贩卖用户个人信息的情况。
如何界定隐私权的属性与类型?有学者认为隐私权可以被视为一种财产权,用户为了方便使用某种信息工具,可以放弃这种财产权。如果从市场交易的角度来看,财产权应当是平等交易的,或者说,交易双方应当处于平等的地位。但是,由于信息技术的复杂性,普通用户难以与商家处在平等的位置上,双方存在着严重的信息不对称,商家可以利用各种算法设计很容易获取用户的隐私信息,例如浏览的网站、购买的商品等,从而根据用户的偏好投放广告,以实现精准营销。更为恶劣的是,有些利欲熏心的商家将用户的个人隐私信息卖给犯罪集团。
如果说与商家相比,用户处于弱势,那么面对公权力机关,公民要保护个人隐私更是难上加难。在大数据时代,个人接触和支配自己的数据有很多困难,个人甚至难以知道自己数据的具体使用范围、目的、期间以及收集数据的必要性。而公权力机关却可以根据数据处理的结果做出影响个人权益的决定。另外,公权力机关可以动用各种资源,采用最新的监控技术,如遍布城市各处的摄像头、面部识别系统、定位系统等来获得有关个人位置的持续记录,从而追踪人们的行为。而个人则很难长久存储和记忆上述信息,以至于公权力机关比个人更了解自己。
大数据时代,监控技术的发展使得监控无处不在,个人数据自主或被迫地被提供服务的机构所收集、利用和存储。“棱镜门”事件使人们认识到,常态化、大规模、系统性的数据监控对个人隐私造成了严重的侵犯。在大数据环境中,传统隐私的内涵和外延存在着解构的可能。云计算的广泛应用使得大数据不再仅仅存储于个人的电脑或其他存储设备中,云服务商如何承担好个人隐私守门人的角色也成为人们高度关注的问题。
隐私权是个人自决的前提。个人自决是个人幸福的前置性条件。法律应尊重个人自主权,并尽可能为个人自由发展创造必要的条件和程序。因此,必须从法律上保障公民的隐私权,而对公民隐私权最根本的保障是宪法保障。隐私权划定了公民个人与他人、与公权力的法定边界。就私权与公权关系而言,隐私权是对公权力的限制,也是个人参与政治的基础。
智能信息系统对于隐私权的侵犯主要有两种形态:一是智能信息系统超范围收集用户个人信息,二是智能信息系统被人利用于侵权行为。人工智能在快递领域的推广应用,在给人们带来便利的同时,也增大了个人信息泄露的风险。当人们在邮寄快递时,必须提供个人信息,智能信息系统利用上述信息可以给用户“画像”,甚至能够对用户的心理和行为进行分析,从而实施精准营销。犯罪分子利用智能信息系统的漏洞侵入数据库,获取大量的用户信息。如果犯罪分子利用这些数据,就可以有针对性地实施诈骗或其他犯罪行为。在现阶段,智能信息系统并不是侵权者,真正的侵权者是利用智能信息系统的人。
在大数据监控的条件下,无论通信隐私、信息隐私还是身体隐私等均可以电子化为数据。在大数据时代,数据控制者的数量繁多。[9]要保障公民隐私权,必须建立数据保护制度。数据保护制度并非限制公权力机关依法处理公民个人数据的权力,而是要求所有公权力机关收集、使用和存储个人数据的行为都必须受到法律的约束和规范。公平原则、个人参与原则、问责原则等的确立均表明程序正义对于公民个人数据保护的必要性。
智能信息系统往往采取非接触性的信息技术进行监控,如移动定位追踪技术、网络流量包拦截、闭路实时监控系统等等。这些技术无需与公民直接接触,且经常采用秘密方式。然而,当公民提出权利诉求时,因难以举证其受到监控且无法证明遭受到事实上的伤害,因而很难获得法律支持。自动化算法中包含的政策判断、公平性以及可能对公民隐私的侵害,外部是难以察觉的。用户的大量信息在不知不觉间就被上传到互联网。然而,个人信息即便不被商家用以谋利,用户也不愿公之于众。因此,大数据时代如何保护公民的个人隐私,是一个重要的挑战。[10]
三、智能信息系统隐私权保护的策略
个人隐私信息是个人隐私与个人信息的交集。个人隐私除了隐私信息还有个人私密空间等,而个人信息既有隐私信息,也有公开信息。一般来说,个人信息保护主要是针对以个人隐私信息为核心的个人信息加以保护[11]。因此,隐私权保护与个人信息保护在内涵与外延上基本是一致的。
智能信息系统隐私权保护是一项系统工程。国家和政府应当在保护个人信息方面更加积极有力。近年来,我国针对个人信息保护的立法有了一定的进展。《数据安全法》《个人信息保护法》对于个人信息保护均有明确的规定。2021年7月28日,最高人民法院发布了《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》,明确强调应用程序不得强制索取非必要个人信息。[12]
正如前文所述,智能信息系统与伦理问题息息相关,在这一点上几乎没有人提出反对意见。但是,智能信息系统能否成为伦理主体承担相应的道德责任,则存在着较大的争议。目前,有关智能信息系统的法律法规并未将智能信息系统视为承担法律责任的主体,真正的法律责任主体是智能信息系统的控制者。为了保护用户的个人信息权,必须在法律上明确智能信息系统产品制造者的法律责任,确保产品无缺陷。一旦发现智能信息系统产品有缺陷,可能对用户的个人信息安全造成损害,应进行召回或停用,由此造成的损失应当进行赔偿。
当今世界各国都处于高度风险和高度不确定性的时代,恐怖主义和其他国家安全问题频现,提升国家治理能力和提高社会治理效率的压力空前高涨,推行常态性的大数据监控就成为化解上述难题的关键。我国在国家战略层面推动了大数据监控措施的落实,然而相关立法的滞后和司法监督的缺位使得公民的隐私权难以得到根本的保障。从法治国家建设的根本要求来看,政府的大数据监控必须合乎法律的基本要求,这也是限制和约束公权力机关监控自由裁量权的必然要求。
智能信息系统类型千差万别,其数据收集方式和算法设计也各不相同,至于某一智能信息系统具体会对用户隐私产生哪些影响,必须实施隐私影响评估,才能更好地保护公民的隐私权。在风险并非特别大时,立法可以通过程序性控制确保权力运行的公开、透明,以保障个人隐私权不受侵犯。法律的规定应当详细、具体,避免因规定粗疏造成自由裁量权过大而侵害隐私权。比如欧洲人权法院认为,定位系统对隐私权的侵害相对较小,因此对于定位系统的监视只需确保一般性保护即可。
我国在进行大数据监控的立法和执法时,可以参照环境影响评价,实施大数据监控影响评价,来评价各种监控措施对个人隐私权的影响程度。大数据监控要实现政府、企业、个人各方利益的平衡,必须遵循必要性原则。比如,在恐怖活动爆发的情况下,社会对安全的需要就会授权公权力机关对个人通信进行监控,这种监控对于国家安全和预防恐怖主义就是极为必要的。遵循比例原则,要求公权力行使所追求的目的是合法且合理的,也存在相关证据表明这些行为是合法的。司法机关在保障公民隐私权实现方面扮演着平衡各方利益的角色,因此必须赋予个人通过司法途径寻求隐私权实现的救济权利。
从国外的司法实践来看,对于可能对公民隐私权造成特别严重影响的监控活动,都是通过司法审查来实现的,需要获得法官颁发的搜查令。我国也有学者主张涉及当事人重大权益的监控,应由法院进行司法审查。司法监督有助于公权力机关所实施的监控活动更加客观、公正,且受到法律的严格约束,避免对公民隐私权造成严重侵害。
保护公民隐私权,应当强化技术创新,运用信息安全技术,保护个人数据,实现个人信息匿名化处理。大数据技术在新冠疫情防控方面發挥了重大作用,但是也有个人信息泄露的风险。网上曾有一个热转的段子:“为了流调信息体面点,得让自己的出行轨迹高档一点。”玩笑背后折射出个人隐私泄露的无奈。上海率先在流调报告做出变化,“只提地点不提人”受到多方点赞,隐去个人隐私不仅是守法需要,更是城市治理温度的体现。针对用户订餐时可能造成的个人信息泄露问题,有的外卖平台开始尝试把客户姓名、电话、地址等进行编码,使商家、送餐员以平台生成的“虚拟隐私号码”与客户进行联系。有的快递公司在打印快递单时也把收货人的手机号中间几位以星号方式显示,这样即使快递包装被收货人丢弃,也不会造成个人信息的泄露。
在保护个人信息的执法方面,存在着机制滞后的问题。对此,监管部门应加强行政指导,强化舆论监督,要制定惩罚性的赔偿措施,让违法违规企业得不偿失,不敢再犯。目前在人工智能领域尚未形成行业规范,保护用户个人隐私大多依靠企业自律。互联网企业应承担起个人数据保护的主体责任,加强自我约束。企业运用人工智能的算法应该公开透明,确保信息可追溯。算法应当具备客观、公正性,排除价值偏见、社会歧视等方面的内容。确保用户的知情权,在用户注册时,必须以明确的方式告知用户互联网平台的隐私条款以及个人信息收集政策,让用户有选择权。各种APP绑定的数据在静默期之后应当清除,与通信运营商对待已注销服务的手机号相类似。
社会组织收集个人信息不能超过必要的限度与合目的性。比如,一款手电筒APP收集了用户过多的个人信息,这与其功能严重不符。2018年年初的“支付宝年度账单事件”让人们认识到“默认同意”的被滥用。当用户使用支付宝时,即默认同意了《芝麻服务协议》。按照这一协议,个人数据可以被第三方采集。“支付宝年度账单事件”后,支付宝进行了全面排查,以更好地保护消费者权益。[13]这一事件也唤起了公众的“信息隐私”意识。互联网公司利用其技术优势,主动采集用户的信息,用户只有“默认同意”,才能使用该软件的服务。然而,互联网公司又以用户同意了有关协议当作其堂而皇之地采集用户信息的合法借口,对这些信息进行再次加工利用。大数据时代,个性化、精细化的精准营销在为顾客带来便利的同时,也让消费者变成了透明人,毫无个人隐私可言。如何对互联网公司进行有效约束,使其在合理的权限之内对用户信息进行采集,这是值得人们深入思考的问题。2021年10月28日,中国消费者协会发布提示,督促经营者要切实落实《个人信息保护法》的相关规定,不得过度收集消费者个人信息;严格限制对敏感个人信息的处理,小区、经营场所不能强制业主或者消费者进行人脸识别;利用个人信息进行自动化决策要合法,禁止“大数据杀熟”等行为。
在保护个人隐私方面,用户要掌握一些基本知识。对于一般人来说,手机或电脑是日常生活中最常用的智能设备,也是个人隐私信息泄露的最主要源头。如何避免手机隐私泄露?送修手机时,要和维修人员反复确认是否需要开机密码,在更换电池、后壳等不必使用屏幕功能的维修项目时,不要轻易提供开机密码等安全密码。尽量选择现场维修的方式,不要让手机离开视线。和维修人员对现场每一步操作及目的沟通确认,不轻易允许手机连接其他未知数据线。手机内尽量不存放重要的私密信息。更换手机或电脑时,要将重要数据迁移或备份,反复格式化或恢复出厂设置,选择正规的回收厂家回收,不要自行丢弃。手机一旦丢失,要马上挂失SIM卡,冻结支付宝、微信等常用软件账号。手机定位功能暴露了用户的日常活动规律,可能给坏人打开了方便之门,因此最好关闭这些功能。安卓手机慎开USB调试功能,这一功能开启后,手机连接电脑时,就有可能被恶意程序窃取锁屏密码、绑定账号等信息。微信和支付宝的“免密支付”功能要谨慎使用,免密支付虽然方便,但是会增加被盗刷的风险。安装手机软件时尽量关闭敏感权限,安装手机软件后要检查对应用软件开放的权限。
个人应增强维权意识,在隐私权遭受侵犯时积极主动地运用法律捍卫自己的合法权益,充分运用法律赋予的知悉权和网络行业规范及时关注自己的个人数据信息,监督政府机构、商业组织、网络运营商等对自己个人信息的运用情况。
参考文献:
[1]李明德,邝岩.大数据与人工智能背景下的网络舆情治理:作用、风险和路径[J].北京工业大学学报(社会科学版),2021(6):1-10.
[2]祝高峰.论人工智能领域个人信息安全法律保护[J].重庆大学学报(社会科学版),2020(4):150-160.
[3]张衠.大数据监控社会中的隐私权保护研究[J].图书与情报,2018(1):71-80.
[4]王立梅.大数据视角下的个人信息匿名化规则构建[J].云南民族大学学报(哲学社会科学版),2021(5):142-150.
[5]陈宇飞,等.人工智能系统安全与隐私风险[J].计算机研究与发展,2019(10).
[6]张天培.共同守护个人信息安全[N].人民日报,2021-10-12(5).
[7]王长潇,刘娜.人工智能时代的隐私危机与信任重建[J].编辑之友,2021(8):101-106.
[8]梁宇,鄭易平.大数据时代信息伦理的困境与应对研究[J].科学技术哲学研究,2021(3):100-106.
[9]邢会强.数据控制者的信义义务理论质疑[J].法制与社会发展,2021(4):143-158.
[10]江小涓.大数据时代的政府管理与服务:提升能力及应对挑战[J].中国行政管理,2018(9):6-11.
[11]周庆,暴梦洁.论大数据背景下个人信息的私法保护[J].延边大学学报(社会科学版),2021(5):125-132.
[12]郭洪平.当AI遇到大数据[J].方圆,2021(15):30-35.
[13]张均斌,尹心航.“被授权”泛滥,个人信息保护咋管[N].中国青年报,2018-02-06(11).
[责任编辑、校对:叶慧娟]
收稿日期:2021-12-02
作者简介:李传军(1970-),男,安徽淮北人,副教授,博士,主要从事电子政务、公共组织与行政伦理研究。