机器人新闻写作中的用户隐私保护研究
2023-10-14袁媛刘明
袁媛 刘明
【摘要】智能媒体时代,机器人新闻写作依赖的数据共享与用户主张的个人隐私保护出现激烈冲突,究其原因主要在于智能化新闻生产技术的广泛使用带来了隐私内涵的变化和隐私权利主体的改变。为了在保障机器人新闻写作技术可持续发展的同时,实现用户个人利益与社会公众利益的平衡,应当明确智能新闻生产语境中的用户隐私保护责任主体,建立隐私管理的人机协作模式;采用更加适用于机器人新闻写作的新闻伦理准则,将隐私保护条款项先植入算法中,提升算法透明度,保障用户知晓权;同时提升算法工程师的伦理水平和用户的隐私素养。
【关键词】机器人新闻写作;隐私权;智能媒体;算法
机器人新闻写作最早诞生于美国,是指利用自然语言处理、大数据分析、算法模型等技术实现新闻的采集、生产与分发全过程自动化的智能写作模式。国外较具代表性的新闻写作机器人包括《华盛顿邮报》的Heliograf、雅虎的智能机器Wordsmith、路透社的Open Calais系统等。当下风头正劲的ChatGPT也具备强大的信息提取、文本生成和学习的能力,能够实现更加快速精准便捷的新闻写作。[1]2023年7月20日,ChatGPT增加了Custom instructions新功能,使其具备个性化特色的同时能更好地贴近使用者的需求。国内的机器人新闻写作起步较晚但发展迅猛,代表性较强的有新华社的快笔小新、腾讯的Dreamwriter、字节跳动的Xiaomingbot和封面新聞的小封机器人等。随着机器人新闻写作技术的不断推广,由此产生的用户隐私侵权风险也日益引起国内外学者的重视。
传统媒体时代,媒体公开信息、保证言论自由的同时,通过使用化名、笔名、打马赛克等方式来保护用户的隐私信息。智能媒体时代,这些曾经行之有效的手段已经难以应付自动化新闻生产面临的复杂问题。因此,厘清机器人新闻生产中隐私侵权问题的权利边界与责任归属,从法律、伦理等层面保证机器人新闻写作的合理、合法,才能推动机器人新闻写作的更好更健康发展。
一、机器人新闻写作中的隐私侵权风险
(一)智能媒体时代隐私内涵的变化与隐私权利主体的改变
传统媒体时代,公共空间与私人空间有明显的界限,隐私内容较为稳定,边界清晰可辨。智能媒体时代,数据能够永久性存储且成本较低,数据流动的速度不断加快,数据整合的价值不断提高且操作日益便捷,这些都促使传统的隐私内涵发生了巨大变化,隐私内容由静止转向动态,边界由清晰转为模糊。原本价值稀少的数据碎片一旦流动到掌握智能技术的平台手中,其经过分析就可能变成威胁用户隐私的高价值信息。
智能媒体时代,隐私权的内涵和外延也发生了变化。传统隐私权的主要目的是维护隐私主体的公众形象、人格尊严等,是一种消极的、被动的“不被打扰的权利”。机器人新闻写作环境中,用户的隐私权还包括对用户个人信息的采集、加工、处理和利用等权利。隐私权成为隐私主体为了维护个人自由和社会关系而采取的一种积极的、主动的控制和自己有关的信息传播的权利。与之相对的是,机器人新闻写作环境中用户的隐私保护主体也发生了改变,拥有隐私的主体不再是唯一的隐私保护主体,掌握技术的新闻媒体和新闻聚合分发平台替代隐私主体成为保护隐私的第一责任人。由于隐私主体和隐私保护主体分离,当双方产生利益冲突时,则可能出现隐私保护主体不尽责甚至反转成隐私侵害主体的情形。
(二)机器人新闻写作信息采集过程中的隐私侵权风险
1.人的数据化增强了数据采集的可能性
新媒体时代,用户的思想和行为以数据的形式被网络记录下来,社交媒体的兴盛进一步促进了用户的主动数据生产行为,多重数据的整合与分析形成了用户在互联网中的数据化映射。智能媒体时代,各种智能设备尤其是可穿戴设备将更加全面全时地采集用户的各项数据,用户的数据化程度将持续加深,“可量化性”和“可追踪度”将进一步提高。这种数据化在为媒体机构提供便利的同时也将使用户面临更多的隐私泄露风险。
2.智能媒体技术扩大了数据采集的范围
随着5G技术的普及,数据传输的高速度能够使本地与云端几乎处于同步状态。云端强大的存储功能和极低的存储成本,再加上高效的使用体验刺激用户将更多的数据传输至云端。对于云服务提供商来说,个人数据是其获取经济利益的重要来源,用户将包含隐私信息在内的更多数据放在由云服务商提供的存储平台上,意味着隐私信息的不可控性将进一步加剧。
(三)机器人新闻写作信息处理与分发过程中的隐私侵权风险
机器人新闻写作在信息处理与分发过程中要不断地进行用户画像。用户画像的过程可以理解为给用户贴标签的过程。用户画像模块对采集到的用户数据进行词频分析,包括关键词出现的次数和权值等,再利用算法分析、统计出用户的典型特征,比如,利用分类算法推测用户的性别、年龄等人口特征,使用统计分析推测用户的阅读习惯、生活习惯等偏好特征,通过聚类算法推测用户的信息消费等行为特征,最终描摹出目标用户的模型,再通过信息反馈不断迭代,使画像越来越精准。在机器人新闻写作环境中,对用户的精准画像需求会带来对用户新型隐私,即整合型隐私的侵犯。所谓的整合型隐私是指利用数据挖掘技术将用户在网络中留存的数字化痕迹进行有规律的整合而形成的隐私。整合型隐私在整合前往往是普通的个人信息,在数据挖掘过程中,通过对数据的排列组合,整合型隐私才得以产生。由于数据整合的主体、时间、方式、目的和用途等往往无法提前确定,导致整合型隐私具有极大的偶然性和隐蔽性,用户很难察觉。[2]另外,以往关于隐私保护问题讨论中的“知情同意”等原则也无法适用于整合型隐私,因为在实际操作中,用户的知情权很难满足。
二、机器人新闻写作中隐私侵权的治理措施
(一)明确责任主体,实现人机共管
1.明确用户隐私保护的责任主体
采用机器人新闻写作技术的新闻媒体和新闻聚合分发平台作为用户数据的采集方、存储方和使用方应当承担起保护用户个人信息安全的责任。结合2020年国家最新发布的《个人信息安全规范》,新闻媒体和新闻聚合分发平台在用户信息采集环节,应当坚持目的明确原则和选择同意原则,向用户明示个人信息处理的目的、方式、范围、规则等,征求其授权同意。在用户信息存储环节,应当坚持确保安全原则和主体参与原则,采取足够的管理措施和技术手段,保护个人信息的保密性和完整性,向用户提供能够查询、更正、删除其个人信息,以及撤回同意、投诉等方法。在用户信息的使用环节,应当坚持最少够用原则,只处理满足个人信息主体授权同意的最少个人信息类型和数量。尔后,及时删除个人信息。由国家网信办发布的《生成式人工智能服务管理暂行办法》中也对广播电视、新闻出版等部门依据各自职责依法加强对生成式人工智能服务的管理提出了要求。
2.智能化新闻生产中应当建立隐私管理的人机协作模式
在机器人新闻写作环境中,用户信息被个人和机器共同掌握,机器作为用户信息的共有者占据更加主动的地位,用户往往受制于甚至屈服于算法平台。因此,要限制算法对用户数据的过度占有与控制,同时加强对用户权益的保护,尤其是赋予用戶被遗忘权和删除权等,改变当前用户与平台间的不对等关系,才能建立起和谐有效的人机协作隐私管理模式。《生成式人工智能服务管理暂行办法》中也针对ChatGPT等生成式人工智能服务提供者作出了明确规定,要求其依法及时受理和处理个人关于查阅、复制、更正、补充、删除其个人信息等的请求。
(二)建立更加适用于机器人新闻写作的新闻伦理准则
1.将隐私保护条款预先植入算法中
智能媒体时代的隐私保护应当覆盖从数据采集、数据传输、数据存储到数据分析与使用的整个过程。对于部分侵犯用户隐私权的违法行为,仅仅要求其停止侵害行为或针对侵害行为进行赔偿是远远不够的。因为有的隐私侵害行为一旦发生,其对用户产生的伤害,比如对未成年人的心理伤害,后期往往很难有效救济。因此,在机器人新闻写作的算法设计中,应当预先将保护用户隐私的理念植入程序中,确保机器人新闻写作技术在运用和管理过程中能够实现对用户隐私信息的有效控制与保护。欧盟在2016年确立的《一般数据保护原则》第25条中就已经明确规定了人工智能在设计阶段和初始设定里要加入数据保护。将隐私理念预先植入算法中,能够在发展自动化新闻生产的同时实现自动化的用户隐私保护。目前,《生成式人工智能服务管理暂行办法》中仅要求提供和使用生成式人工智能服务者在算法设计过程中,采取有效措施防止产生歧视,并未对隐私保护作出明确的规定。
2.提升算法透明度,保障用户知晓权
对于用户来说,机器人新闻写作的过程是隐蔽的、不可见的,因此提升算法透明度能够有效保障用户的知晓权,为用户提供隐私处理决策的依据。《中华人民共和国个人信息保护法》第七条明确规定了处理个人信息应当遵循公开、透明原则。其中第二十四条又进一步规定个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度。通过自动化决策方式向个人进行信息推送,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。《生成式人工智能服务管理暂行办法》也要求提供和使用生成式人工智能服务应提升透明度,但缺乏更具体细致的条文。事实上,透明原则能够有效地保护用户的信息自决权,因为该原则要求使用算法的新闻媒体和新闻聚合分发平台等在处理用户信息过程中,应当对用户履行充分的告知义务,尊重用户对个人信息的选择权和决定权,包括删除权。这样,面对新闻媒体或者新闻聚合分发平台复杂且难以解释的算法技术,用户就能够清晰地知晓其信息处理的目的、方式、范围等,并在此基础上作出判断和选择。坚持使用算法的新闻媒体或新闻聚合分发平台内部的算法透明原则,一方面有助于建立更加具有责任意识的新闻媒体,另一方面也能够帮助新闻媒体赢得更多用户的信任,从而提高新闻媒体的公信力和美誉度。
(三)提升算法工程师的伦理水平和用户的隐私素养
1.提升算法工程师的伦理水平
算法技术并不是绝对中立的。机器人新闻写作依靠的核心算法是算法工程师不同价值观的反映,价值观不同的算法工程师设计出的算法也会有很大差异。机器人新闻写作技术的算法工程师作为媒体算法技术隐私侵权的首要责任人,他们掌握着新闻算法能否有效平衡用户数据隐私权与公众知情权的关键信息。算法工程师对用户隐私的不同看法和重视程度将决定他们以何种态度、何种行为对待算法,更意味着他们设计的算法将会对用户的隐私造成何种影响。学者袁帆、严三九通过对传媒业269名算法工程师进行实证研究发现,“相当比例的算法工程师的算法伦理价值观处在一种模糊状态。而一旦处于低算法伦理水平的算法工程师道德警惕有所松懈,那么就有很大可能造成算法伦理失范”。[3]因此,通过行业规范和行业培训等手段切实提高算法工程师的算法伦理水平,加强其对个人信息重要性的评估,促使他们能够积极主动地承担用户隐私侵权的责任,才能够有效地保护新闻机器人写作的健康发展。
2.提高用户隐私素养
对用户的隐私素养教育应当从自我认知、态度和行为等多个层面入手。首先,引导媒体用户尤其是老年人群体和未成年人群体建立对自身隐私素养正确的认识和评价,提高其隐私保护的自觉意识和边界意识,防止由自身认知偏差带来更多的隐私信息泄露。其次,采取学校教育与社会教育相结合的方式,向用户普及隐私保护知识,提升用户对算法的了解和认识,引导用户对所使用的媒体进行批判性思考。增强用户在个人信息管理中的主动性,当用户隐私遭受侵犯时,能够及时采取补救措施并运用《个人信息保护法》等法律武器捍卫自身权益。[4]
用户数据是机器人新闻写作中最重要的生产资料。无视机器人新闻写作过程中的用户隐私保护问题,在给用户带来更多隐私泄露风险的同时,还可能引发“寒蝉效应”,使用户对智能媒体的不信任程度持续加深甚至放弃使用。反之,对用户信息的过度保护,也可能导致用户信息利用成本过高,阻碍媒体行业的健康发展,甚至损害公共利益。因此,只有政府、媒体和用户等多方协同努力,对机器人新闻写作中的隐私保护问题进行明确、规范和监管,才能让机器人新闻写作更加可用、可靠、可控,走上健康和谐、可持续发展的道路。
[本文为辽宁省教育厅科学研究经费项目“智能媒体时代的媒体隐私侵权问题与救济路径研究”(项目编号:JJW202015404)阶段性成果]
参考文献:
[1]高菲,王晴川.人工智能聊天机器人ChatGPT的媒介属性、影响与局限[J].新闻爱好者,2023(4):36-39.
[2]顾理平.整合型隐私:大数据时代隐私的新类型[J].南京社会科学,2020(4):106-111+122.
[3]袁帆,严三九.模糊的算法伦理水平:基于传媒业269名算法工程师的实证研究[J].新闻大学,2020(5):112-124+129.
[4]林碧烽,范五三.从媒介本位到用户至上:智媒时代隐私素养研究综述[J].编辑学刊,2021(1):36-42.
作者简介:袁媛,辽宁工业大学文化传媒与艺术设计学院副教授(锦州 121001);刘明,辽宁工业大学科技处讲师(锦州 121001)。
编校:张红玲