智能监控社会的形塑过程与机制
2023-06-01匡文波姜泽玮
匡文波,姜泽玮
(中国人民大学新闻学院,北京 100872)
一、算法环境下的监控社会问题
算法是智能传播系统运作的核心驱动力。 依托大数据、传感器、物联网、云计算、人工智能等新兴信息科技,算法重塑着社会生活的各个方面,并已引发诸多关乎现代人类生存发展的基本问题,诸如社会监控的加剧、个人隐私的侵犯、被遗忘权的呼声等[1][2]。 这些问题不仅迫切追问着网络治理与社会治理的实践发展,同时也衔接起经典传播社会学理论同新传播现象、新传播技术之间对话的通道。 新媒体研究正以反思性的视野重新审视智能传播与人类社会的关系,探究智能传播系统及其技术与商业逻辑如何影响现代人类的社会行动与结构,并就如何理解智能传播与算法环境带来的后果——一种正在形成的“智能监控社会”展开积极思考。
(一)监控社会:从全景监狱到算法监控
监控是社会学的关键概念。 边沁在1791 年设计了圆形监狱,在这里监视者可以观察一切,而罪犯惶惶不可终日[3],福柯将圆形监狱由建筑上升到思想,提出了全景敞视主义的概念,宣告借助这一原则可以实现监控社会[4]。 早在网络传播时代来临之前,通话监听、工作场所监视、摄像头滥用以及新闻报道等手段已在一步步地形塑着现代人的监控社会[5]。 虽然互联网在某些层面能够赋权普通民众,但在移动互联、大数据与智能传播时代,越来越多的证据表明互联网公司等主体促成了日益显著的监控社会并掌握着主要权力[6],网络社会的“全景监视”已然形成[7]。 在大数据时代,隐私泄露成为民众上网过程中最大的担忧,有抽样调查显示:42.9%的人群表示出对大数据应用的负面态度,36.5%的人群呼吁应加强针对网络个人信息安全的法律法规、制度建设与监管保障[8]。 网络社会的监控既是传统社会分层视角下权力关系的体现,也可为资本带来收益或创造间接性价值[9],同时用户的内容发布及行为数据还可能成为司法证明或电子证据[10]。但与此同时,监控社会并不意味着新媒体用户完全失去了抵抗力与能动性,具有隐私披露及数据监控性质的新技术采纳行为仍然会受到诸如群体规模、社会认同、组织关系、心理结构等多种因素的影响[11],而非只由政治经济权力单向决定。 有研究将社交媒体中的观察与监视分为“自愿泛视”“横向监视”和“自我检视”,其中包含着自我、他者、群体及社会之间的复杂互动关系[12]。 从社交媒体到算法推荐与人工智能介入的传播环境,网络社会的监控行为及结构正在愈发复杂化,但现阶段能够有效解释智能传播环境下监控社会形成机理的研究成果仍较为匮乏。 因此,需要结合新技术应用与多元社会行动者的互动关系,在理论层面系统性地回答以下问题:算法环境下的监控社会是如何形塑的? 是否存在抵抗及消解的可能路径?
(二)主动与被动可见中的隐私披露与隐私让渡
网络个人信息传播可分为主动的信息披露与被动的信息让渡。 从个体的信息披露行为看,社交媒体用户的内容分享与自我呈现表明了主动可见的必要性,但近年来随着社交媒体回避、倦怠现象的出现及相关研究的增多[13],主动可见的重要性有所衰减。 在算法环境下,虽然有研究认为可见性由福柯意义上的被动可见转向争夺稀有资源的主动可见[14],但更多研究仍然支持被动可见在算法环境下的加强,表现为平台及其他社会主体对用户数据的过度收集[15]、算法对用户画像的建构[16]、网络使用痕迹的暴露以及“物联网”“身联网”环境下一般社会行为的透明化[17]。 总体而言,智能传播环境下被动可见的范围、程度及其影响要高于主动可见,指向的是一般大众的个人隐私权议题。
隐私权议题至少可以追溯到中世纪时期[18](P6),个人隐私既关乎人类社会的基本运行及个体生存与尊严的需要,也是新媒体与信息伦理研究领域的核心关键词[19]。 有研究发现社交媒体用户大多并不关心个人隐私[12];即便是个人心理和认知层面的隐私关注、隐私担忧也并不一定都体现为行动层面的隐私保护,这也是“隐私悖论”所揭示的问题。 在实证研究中,“隐私悖论”呈现两种不同面向:一些研究支持隐私关注、风险感知等变量显著影响隐私披露或隐私保护[20][21],另一些研究则支持“隐私悖论”的成立[22][23]。 以“隐私悖论”为中心,相关量化研究多聚焦于隐私披露的态度、意愿及行为之间的关系问题,揭示了诸如隐私关注、隐私计算、感知利益、感知风险、感知有用性与易用性、情感支持、信任等变量的直接、中介及调节效应[24][25]。 这些研究从微观层面构建了个体隐私披露影响因素的量化模型,但目前尚缺乏在组织、群体、平台、社会等更为宽阔的视野下对新媒体用户隐私披露机制的解释。
除“隐私悖论”外,隐私内涵在网络传播中的迁移也备受关注。 沃伦与布兰代斯在1890 年将隐私界定为一种不受干涉、免于侵害的“独处的权利”[26],之后延续印刷术、广播电视、社交媒体的媒介技术演进,隐私抽离于实体空间而成为虚拟隐私[18](P4),即从“作为秘密的隐私”正在转向“作为控制的个人数据”[27]。 另一变化是,隐私权的边界划定不再以信息分享与发布为终点,隐私保护的焦点从个人信息的披露与否转向对个人信息的控制[28],有关被遗忘权的呼声及讨论便是代表[29]。也有研究在“作为控制的隐私权”的理念基础上更进一步,认为隐私权实则是主体对所处空间与他人关系的控制[30]。 隐私本体的转向促使社会科学界更为关注网络基础设施供应商、信息服务平台对个人数据的收集与使用过程及其背后的监视、控制及权力关系等问题。
综上所述,对智能监控社会形塑机制的解释必须同新媒体用户的隐私决策相联系,与此同时,信息隐私的本体及其决策机制在智能传播时代也正在发生迁移,亟待相关理论研究的推进。 为此本研究将关注以下问题:新媒体用户隐私关注与隐私保护的态度及行为如何影响智能监控社会的形塑? 如何通过传播的视角重新理解算法环境下隐私权的实质内涵及其实现可能?
(三)互联网平台视角下的监控社会形塑
大数据、算法、人工智能技术的掌握者及使用者主要是网络基础设施供应商与各类新媒体平台,在社交媒体成为网络传播的整体趋势而不仅仅是单一领域的今天,即时通讯、新闻、购物、咨询、旅行、教育等各类软件都在不同程度上将自身往社交媒体方向发展,平台作为一种视角也逐渐成为新媒体研究的热点。 新媒体平台的实质是一种技术架构,主要包括平台所有者/开发人员、平台用户和机器学习算法3 类行动者[31],狭义的平台也可仅指作为平台所有者的互联网企业。 现阶段学界对平台的研究形成了数字劳动和算法资本主义两大主要路径[32],后者包含了诸如“游戏化的控制和管理、全景敞视监狱、情绪劳动和自我剥削、劳动者主体性和自主权的削弱”等议题[33]。
平台所有者一般会将自己塑造成维护真实性与完整性的理想的中立者,其权力背后的信念也被称作“平台家长主义”[34],由此产生的质疑及伦理问题引发学界关注。 以算法为核心的平台技术逻辑对网络社会的结构与行动具有越来越重要的影响,例如,智能传播引发了人们对隐私、技术透明度、平台运营与技术控制的关切[35],由平台与算法相结合而构建的传播机制可能挑战已有社会规范、产生社会歧视等伦理问题[36],社交机器人在网络社区中的应用也会影响算法的内容可见性与人工审核[37]。此外,在“平台-用户”的权力关系结构外,用户间的关系维度也是考察监控与隐私问题的切入口。 有研究认为,社交媒体用户会产生对自己身体的监控并将自我进行物化与客体化[38],微信朋友圈的“三天可见”功能也体现了用户之间围绕个人信息披露而进行的人际关系边界确定[39]。 总体而言,既有平台研究的视角主要基于政治经济学路径,重点关注网络传播与算法环境下的劳动过程、劳资关系等问题。 面对当今更加泛在化与普遍化的智能监控社会,则需要超越单一视角而关注日常生活世界中各类场域及其行动者,以发掘更为丰富的互联网平台、传播技术及新媒体用户之间的互动机制。 因此,本研究将进一步回答以下问题:网络平台在智能监控社会的结构中处于怎样的位置? 平台及其采纳的算法技术如何收集与使用用户的各类信息隐私?
二、研究方法
为回应上述研究问题,探究算法、互联网平台以及用户个人隐私之间的互动关系,在宏观社会理论与微观行为科学视角之间构建出一套中层模型,以揭示新媒体平台中用户个人信息采集与披露的作用机制及其影响因素,最终回应智能传播时代的监控社会何以形成的议题。 本文将从平台方与用户方两个维度出发,分别探究个人隐私的主动披露(用户分享)与被动让渡(平台收集)现象,最后进行整合分析。 本文所使用的研究资料主要包括访谈资料和17 家代表性移动新媒体平台的隐私政策文本,研究资料的收集方式如下。
首先,对不同性别、年龄与学历的移动新媒体用户进行深度访谈,了解智能手机用户在日常使用过程中的隐私关注、隐私披露及相关使用态度与行为信息。 访谈工作分别由研究者在2022 年9 月至11 月、2023 年1 月至2 月间完成,其中第一阶段的访谈侧重于疫情环境下的手机媒介使用与个人隐私话题,采用半结构化访谈法;第二阶段的访谈内容指向更为普遍的手机媒介与个人隐私,采用非结构化访谈法。 研究者共收集到48 名受访者的访谈资料,受访者主要分布在北京与陕西,还有少量涉及广东、黑龙江、新疆等地,整体上涵盖一线、二线、三线城市及农村地区,访谈对象基本情况见表1。 结合受访者意愿与客观条件,其中9 次访谈为面对面访谈,39 次访谈为电话或微信访谈;23 份访谈资料属于受访者话语的全文完整记录,另25 份访谈资料属于采访者对受访者话语的重点概括记录。
表1 访谈对象整体情况
其次,对现阶段国内主要智能手机应用(APP)的隐私条款进行文本分析,并对各个平台中个人信息授权的操作过程进行观察研究。 个案选择参考QuestMobile 发布的2022 上半年度中国大陆地区用户数量排名前20 位的APP 名单,剔除了与媒体无关的“搜狗输入法、百度输入法、WiFi 万能钥匙”3款工具型应用程序(见表2)。 本研究将隐私政策文本作为研究资料,意在从中探析个人信息采集的类型、功能及其使用场景,并不对政策文本本身作出评判分析。 但从中仍可看出,近年来许多平台正在逐步优化隐私政策的内容及表达。
表2 国内主要移动应用平台的隐私政策情况
三、平台用户隐私披露与让渡的影响机制
(一)用户个人隐私的主动披露与被动让渡
通过访谈发现,用户心理层面的社交需要、情感支持、隐私计算与社会信任影响主动隐私披露;从众心理、便利需要、工作需要与生存需要影响被动隐私让渡(见图1)。 从移动新媒体使用中的主动隐私披露情况来看,发布朋友圈、微信聊天很多时候并不是为了信息的传递或散布,而只是用于证明主体的“存在”以维系社交关系;自我披露在一些时候会给主体带来理性行为外的情感满足;自我披露中时常伴随着“收益-风险”权衡的隐私计算,既包括信息发布前的考量,也包括发布后的消除、撤回、可见周期设置等“补救”行为。 用户的社会信任水平会影响个人隐私的主动披露,其中又包括对新媒体平台的信任、对具体或假想传播对象的信任、对所处社会环境的普遍信任等。
图1 用户个人隐私披露及让渡的过程及影响因素
从用户隐私的被动让渡看,互联网原住民对新媒体平台的信息收集机制大都非常了解,认同或基本认同让渡个人隐私以换取平台服务的逻辑,除涉及金融类服务外,他们一般很少特别关注平台隐私收集的方式及政策;反而很多中老年用户面对平台隐私让渡授权时会表现出格外严肃与谨慎的态度,这在一定程度上也制约了中老年群体智能手机使用的流畅性及学习上手速度。 可以看出,隐私让渡同使用便利性往往是正向相关的。 此外,用户的工作需要甚至生存需要也要求其在各种场景下向平台让渡个人隐私,例如工作中的共享文档、视频会议,疫情防控中的行程码、健康码等。 在这些工作与社会生活场景下,用户直接面对的其实并不是信息服务平台,而是自己所处的组织、群体、公司、社区等,从众心理往往贯穿于隐私让渡的选择过程之中。在用户个人隐私的主动披露与被动让渡中,有以下3 个问题值得进一步关注与讨论。
1.用户隐私披露中的两种价值观类型
在用户的隐私自我披露中,存在“倾向传播的价值观”与“倾向非传播的价值观”两种类型(见表3)。行为科学的研究揭示了影响“隐私计算”的变量,主要指个体在是否选择隐私披露时基于理性行为路径对“风险-收益”关系的考量,但除了具体行为涉及的单次隐私计算,不同个体在价值观层面也具有相对稳定的隐私计算结果倾向。
表3 用户隐私披露中的两种价值观类型
具体而言,更倾向于在网络中披露个人隐私的人群一般更认同传播的收益大于风险,反之,更认同传播的风险大于收益的群体则会更为谨慎地在日常生活中披露隐私。 社交媒体中的人际互动与自我呈现往往被看作建立社会资本的途径,但社会资本之于个体的意义存在差别,一部分人更倾向于守住已有的资源,另一部分人则倾向于开辟新的资源。从认知到行为的心理路径看,非理性选择会带来更多的隐私披露,理性选择则会减少隐私披露的频率与程度。 隐私披露的价值观形成和主体过去的经历也有关系,有过隐私受损经历的人往往更偏向于非传播的价值观,这些经历包括:公开言论经过舆论发酵后给发布者带来了名誉、事业方面的损失甚至法律处置,微信聊天截图在未被告知的情况下被对方或媒体公开发布,自我呈现的形象管理失败反招致妒忌和非议,登记参与电子商务活动导致后续频繁电话骚扰等。 社会或群体的文化环境同样会影响个人的传播价值观,如在更加信奉诸如“沉默是金”“言多必误”的文化律条中,言说与传播的负面价值会更加凸显。
2.组织与群体的规训:“个体-平台”间的中介因素
平台研究大多采用“个体-平台”的二元分析框架,似乎平台的使用者是孤立的原子,较少有研究讨论作为中介因素的处于平台与个体之间的种种社会单位。 事实上,很多情境下新媒体用户在向平台让渡个人隐私时,大多认为自己的信息是提供给了所在的组织、单位、企业、管理者等中介,尽管从技术层面看信息是被新媒体平台所获取,但这一层面往往在个体认知中被选择性忽略。 例如:在人脸识别系统的应用中,小区物业、单位保卫处等组织机构扮演了中介角色;在健康码、行程码、高校“疫情防控通”等系统的应用中,各级行政管理部门扮演了中介角色;在电子问卷、共享文档等系统的应用中,企业、工作小组扮演了中介角色。 对于新媒体中个人信息的让渡,组织与群体发挥了至关重要的作用,这种作用因不同的场景、产品、使用方式而呈现出或强或弱、或明或暗的影响力。 关于传播效果实现机制的中介因素的讨论可以追溯至大众传播时代的两级传播理论,但在新媒体研究中,社会组织的权力与规训机制被互动式、去中心化、个体联结、民众赋权的网络社会理想构型所遮蔽,并未引起新媒体平台研究者的足够重视。 需要认识到,网络平台并不只是互联网技术逻辑演绎下用户个体的联结,平台之于用户的强大影响往往离不开个体所在组织与群体的中介作用。
3.算法介入:用户使用中的技术感知、隐私管理与算法抵抗
算法与人工智能技术在新闻传播领域的应用及其声望昭示出“魔弹论”回归的倾向[40],通过用户标签与内容标签的精准匹配提升传播效果,这种看似能够提升“用户地位”的个性化服务实则将用户嵌入更深的茧房。 与此同时,用户行为也并非全然顺应算法的技术逻辑与平台的商业逻辑,各类新媒体平台的用户使用行为也存在技术创新扩散中的中辍现象,体现出其背后能动的技术感知与抵抗策略。 通过访谈发现,随着近年来算法推荐在各类平台中的深入应用,越来越多的用户开始理解新媒体平台的内容推荐机制,包括许多作为非互联网原住民的中老年群体,整体而言,使用者对技术的感知愈发明显。 在使用过程中,个人隐私暴露与注意力消耗是负面体验感的主要来源,广告骚扰、生活焦虑、媒体倦怠与安全风险是受访者提到频率最高的消极后果。
算法抵抗的主体行为一般包括寻找替代平台(例如反感百度搜索页面的百家号内容推荐而选择微软必应等其他主页面没有推送的搜索引擎)和暂时中止使用(例如发现自己刷短视频成瘾而妨碍工作学习,暂时卸载短视频软件),基本对应罗杰斯对中辍现象的“替换”与“醒悟”分类[41]。 此外,部分用户还可能会刻意反向喂养算法以改善自我形象,主动搜索、浏览一些本不想看的内容以改变平台界面的推送内容。 部分抵抗主体不仅会通过行动以调整自我同技术的关系,还可能致力于“帮助”他人,例如淘宝短视频的评论区常出现一些高赞置顶的模版式评论(例如“该查物流的查物流,该买东西的买东西,不要忘了你是来干嘛的”“年轻人,不要看见一些封面就立马进来, 以后的路还很长, 一定要学会克制”),发布者希望借此帮助其他人免于被算法推送所“惑”。
(二)移动新媒体平台的用户个人信息收集
1.平台个人信息收集的类型及场景
通过对17 例移动新媒体平台隐私政策的文本分析发现,平台收集的用户个人信息主要可以分为虚拟身份信息、真实身份信息、生物识别信息、位置信息、社会信息、行为信息、话语信息、金融信息与设备信息9 类。 在不同类型平台的隐私政策表述中,个人信息的用途/功能非常多样,本研究从用户的使用场景层面将其划分为“注册/登录”“社交/互动”“搜索/浏览”“交易/服务”4 类,并将不同信息场景与信息类型进行关联(见表4)。 在“注册/登录”的场景下,用户需要首先向平台提供个人真实及虚拟的身份信息与终端、网络等设备信息,例如完成手机号、身份证号等认证,设置账户、密码等。在“搜索/浏览”“社交/互动”与“交易/服务”这3 类主要使用场景下,个人信息被获取的程度随着功能使用范围与频率的增长而加深。 其中,敏感信息一般需要在用户同意隐私政策后再进行二次授权,例如开通人脸识别功能、开通金融服务、开启GPS 定位、调动手机摄像头或麦克风等;但平台对诸如订阅、添加、关注、分享、点赞、搜索、浏览等使用行为信息的收集则一般不会再专门告知并征求许可。
表4 移动应用平台的个人信息收集及使用类型
2.平台个人信息收集的方式及策略
在遵守所在国家、地区的基本法律法规前提下,平台逻辑更倾向于尽可能多地收集用户个人信息,而不是践行最小必要原则,事实上最小必要原则的实践在现阶段也基本无法实现[42]。 范·迪克认为,平台意义最重要的层面是深度互联的政治经济与社会计算,由此构成的平台生态系统的运行在很大程度上受到经济、金融、商业模式的驱动[43]。 在商业逻辑占据主导地位的情况下,平台会采用各种“策略”以促进用户个人信息的收集,并明显呈现出平台所有者对于用户隐私披露的态度与偏向,而非中立机构的立场。
本研究统计了作为研究对象的17 个APP 所使用的个人信息收集方式及策略,包括隐私政策的呈现方式、授权选项字体及色彩、拒绝隐私政策的结果、拒绝或同意隐私政策后是否会再度确认等。 整体来看,各类移动应用平台对于个人信息收集的方式及策略既存在共性,也存在差异。 共性在于互联网平台的基本逻辑皆是倾向于使用户更多、更自愿地让渡个人隐私,但不同平台对于个人隐私保护问题的重视程度不同,在信息收集方式及策略上也存在一定差异。
在各平台隐私政策的呈现页面中,一般仅呈现几点主要内容,而完整版的隐私政策以及隐私政策摘要版(简明版)都以链接的方式被折叠,用户需要专门点击并跳转页面进行阅读。 在同意/拒绝的选项字体、色彩、大小、位置等视觉表现上,平台都鲜明地体现出鼓励乃至诱导用户让渡个人信息的倾向,而非处于中立位置让用户自主抉择。 虽然有些平台为初次拒绝隐私政策的用户提供了使用部分功能的通道,但用户如果想要真正开启,还需要多次反复确认,而每次进行确认时的选项设置仍然会通过不同字体、色彩、大小、修辞、位置等形式试图劝诱用户接受隐私让渡。 在用户开启访客模式等使用环境后,一些平台还会反复弹窗请求开启正常模式(同意隐私让渡),致使所谓的“部分使用”几乎无法使用。
此外,不同类型的平台还会采用其他策略鼓励用户的个人信息让渡,例如用户只有在视频类平台注册/登录后才可以观看更加清晰的画面,购物平台及其商家会将部分热销产品设置为仅限会员购买,一些品牌免费注册会员后即可领取红包、优惠券等。这一系列策略具有明显的个人信息交换性质,无论是从互联网平台企业处获取更好的服务亦或是直接、间接的经济回报,用户的个人信息在网络传播环境下已成为经济学意义上的等价物,甚至在一些科幻短片的想象中个人信息还可能成为货币。
3.平台个人信息收集的过程机制及社会后果
图2 展示了平台个人信息收集的过程机制及社会后果。 基于法律法规及社会压力对个人信息隐私保护的要求,新媒体平台必须制定并发布隐私保护政策,但在用户需要、平台策略以及个人信息交换的机制下,用户基本会忽略隐私政策的内容,原本应是保护用户的隐私政策实则成为保护平台方的法律武器,由此使监控正当化。 “知情-同意”原则是现阶段国际通用的互联网个人信息使用的基本原则,但其在实践中愈发被诟病,基于“知情-同意”原则,平台在隐私授权的界面中需要提供“同意/拒绝”的选项,但在“拒绝即退出”的前提下以及各种话语表达策略下,用户基本会默认同意条款,这种同意是被动与强制的同意,呈现出监控的实质强制性。 基于网信政策的实名制要求,平台会收集用户的手机号、身份证号等实名信息以供账号注册、登录,手机短信验证的注册/登录方式已经基本取代了早期互联网使用中的虚拟账号、密码登录,这使得用户管理与软件使用更加便捷化,同时也使监控走向精准化。 为提供个性服务、喂养算法,平台需要源源不断地收集用户的使用行为信息,这些信息更多是在隐蔽的情况下被让渡,达成动态化的监控。平台需要大量用户生产内容以保障平台生态,因此会通过各种策略刺激鼓励用户之间的对话、分享、点赞、评论等互动行为,将“社交”建构为一种互联网时代的意识形态,用户在贡献内容的过程中产生了愈发密集的横向监控。 基于平台的商业属性定位,流量争夺是互联网行业竞争的基本逻辑。 越来越多的平台开始采用算法与人工智能技术,力图尽可能地还原真实全面的用户画像,从而通过提供个性化服务将用户牢牢吸引在算法推荐机制中,向广告商提供更多、更优质、被“麻醉”的二次售卖商品。
图2 平台个人信息收集机制及社会后果的分析框架
(三)智能监控社会的建构与解构:平台用户隐私披露与让渡的综合分析框架
本研究从宏观视角构建了平台用户隐私披露与让渡的综合分析框架,包括个体、组织、平台与社会4 个层次,见图3。以各种心理特质及心理活动为主的个体因素是影响隐私披露与让渡的内在动能,也是个人信息传播系统中关键的把关机制。 虽然网络传播时代对隐私权及其保护的新近理解更多将权利边界的确定看作一个动态的过程,而不以主体的个人信息分享为终点,但个体是否最终决定向他人及平台披露或让渡个人隐私对于隐私保护而言仍旧具有质的影响,只有“个人边界”被打开,个人及其隐私才会被卷入“共同边界”及协商管理[44]。 用户在面对新媒体平台的注册、登录以及后续的各类使用行为时,总是处在或多或少、或明显或潜在的“矛盾”与“纠结”之中,心理学及信息行为研究领域的“隐私计算”所描绘的正是这种心理活动。
图3 平台用户隐私披露与让渡的综合分析框架
诸如企事业单位、消费场所、学校、社区等组织构成了连接个体用户与互联网平台的中介,虽然组织因素并不一定出现在所有新媒体场景中,但不可否认其在整个新媒体平台与社会互动的系统中扮演着非常重要的角色。 组织在个人隐私披露与让渡过程中的作用机制是将分散的个体进行整合,进而将个人决策上升为集体决策,在新媒介技术采纳的过程中将组织成员的个人信息与网络平台进行共享。 不同组织的性质、运作方式、管理模式、工作需要和内在气质影响着组织与其成员的关系,以及组织面对新媒体技术及互联网平台的姿态,由此可将其分为更偏向于个人隐私收集与监控的组织以及更倾向于个人隐私保护的组织。
使用算法推荐技术的互联网平台是维持智能监控社会的中枢层面,其核心机制在于将个人隐私权集中化,形成隐私集权。 有研究认为,资本主义平台实质上并非是侵蚀或削减了用户的隐私权,而是对隐私权进行了重新分配,监视资本家拥有了更多的隐私权并以此来剥夺人们在生活保密方面的选择权[45]。围绕隐私权的争夺逐渐变成了权力的角逐,在智能监控社会中,权力与权利是同步发展的,超级网络平台及其所有者们的隐私权在不断增长,普通用户却在不断“透明化”。 此外也应看到,随着近年来社会各界对个人信息保护的呼声不断上涨,网络平台对于数据管理与用户隐私保护也在进行着调整,未来不同平台型企业围绕这一议题的实践方向可能产生分化,新一代互联网行业的竞争与迭代极大可能围绕着个人隐私打响。
此外,还应关注社会、文化、价值观等宏观层面的因素对监控社会的形塑,虽然新媒体与个人隐私是全球范围内网络传播研究共同关切的议题,但具体到不同的历史、地理、文化、政治与经济语境,该议题仍存在较大差异性,这将牵涉到诸如效率与公平、个人主义与集体主义、实用主义价值观与理性主义价值观、私有经济与公有经济、建设性新闻报道与批判性新闻报道、促进产业发展与保护数据安全等诸多方面的问题。 对于我国而言,在个人隐私保护与数据治理问题上不能照搬西方理论与实践,而是应当从我国基本国情出发,既要重视互联网信息产业以及社会经济的发展大局,也不能忽视个体的合法权益与数字化生存中的主观感受。
四、总结与讨论
本研究以新媒体平台用户的信息隐私为中心,分别从用户视角、平台视角以及整合性视角考察了平台用户隐私披露与让渡的影响因素,探讨了智能监控社会的形塑过程与机制。 在用户视角下,研究发现用户心理层面的社交需要、情感支持、隐私计算与社会信任影响主动隐私披露;从众心理、便利需要、工作需要与生存需要影响被动隐私让渡。 用户心理通过平台机制的作用后,可能导致广告骚扰、生活焦虑、媒体倦怠、安全风险等后果,其中“组织/群体因素”“社会/法治因素”和“算法因素”对于负面结果的生成具有干预和调节作用。 在平台视角下,研究发现新媒体平台通过搭建“注册/登录”“社交/互动”“搜索/浏览”“交易/服务”4 种主要场景来收集不同类型的用户个人信息,并通过制定有利于自身的隐私政策尽可能使用户更多地披露及让渡个人信息,而非践行“最小必要原则”。 在“目的-措施-行为-结果-影响”的过程框架下,平台的个人信息收集机制最终将形成正当监控、强制监控、精准监控、动态监控、横向监控与麻醉监控的社会影响。 在整合性的宏观视角下,研究发现智能监控社会由个体、组织、平台与社会共同形塑,各层级均含有建构性力量与解构性力量的生成因素,智能监控社会的强度取决于两种力量的对抗与张力。 以下将结合本文的研究发现,对研究结果做出进一步讨论。
(一)社会信息系统中个人隐私把关的流程及权力迁移
在传统媒体时代的新闻业务中,记者的新闻采写、拍摄、报道同个体隐私权之间的矛盾冲突便时有发生,随着智能传播时代的到来,新闻传播与隐私的研究基本将目光从职业新闻报道活动中抽离,转向新媒体平台的研究视角。 相比职业新闻记者的生产常规,移动新媒体与算法传播的技术架构对个人隐私侵犯的程度要远甚之。 更为重要的是,这一转向背后的本质原因在于社会信息系统中个人隐私把关流程及权力的迁移。 在传统媒体时代,对个人隐私是否披露以及如何使用的权力主要掌握在职业新闻工作者手中,新闻记者依靠职业伦理操守与法律法规形成了一套在新闻生产常规中对受访者/当事人进行隐私保护的策略,例如采访的知情同意原则、使用匿名消息源等。 但即便在传统媒体时代,与作为公共利益的知情权、言论自由权相比,新闻传播伦理对作为个人利益的隐私权的关注也长期有所欠缺。 随着传播环境的变迁,个人隐私的“把关人”从职业新闻工作者转向了多元主体构成的复杂系统,其中平台商业逻辑与算法技术逻辑的把关效应尤为凸显,这需要我们超越个体把关而从系统把关的角度考察个人隐私在社会信息系统中的流动。 在算法传播环境下,由用户、组织、平台与社会共同架构起的智能监控系统决定了对个人信息隐私的把关。 有效保护个人信息及其基本权益需维持系统的生态平衡,不使任何一方作用力单向度地蔓延,既要加强对网络用户媒介素养、隐私素养的提升,也尤其要警惕商业平台权力的无限扩张。
(二)双向作用力驱动下的智能监控社会形塑与解构
智能监控社会的形塑不是一个单向作用力的结果,既不能将其完全看作是平台对个体的数字剥削,也绝非完全由个体的能动性决定,而是新媒体用户与互联网平台“协商”的产物。 从网络与社会治理的应用层面看,网络平台正在试图成为个人信息把关系统中的绝对权力主体,对此必须予以控制,否则这一演化趋势可能对社会结构产生剧烈的负面影响。 如果将隐私权看作一种主体对空间的控制权,那么对智能监控社会的治理本质上也是一项有关社会权力关系迁移过程的议题,而不仅仅是个体的人格权与伦理问题。 从本文提出的双向驱动力结构看,对监控社会的消解也同时存在两种力量:一种是自上而下的行政力量对互联网的治理要求,另一种是自下而上的用户对平台信息收集与算法技术逻辑的抵抗,处于两种作用力之下的互联网平台必须为此做出调整,调整的幅度及方向取决于两种作用力的大小。 当两种力量中的任何一种单独发挥作用时,都不足以达成对结构性的监控环境的消解,充其量只能是暂时性与局部性的对抗。 例如,对于平台用户经常采用的“自我消除”策略,有学者已指出其不可能从根本上解决由社交媒体平台系统性结构和功能变化所带来的隐私风险问题[46]。 虽然用户的算法抵抗、隐私保护策略总是或强或弱地同监控社会的系统相抗衡,即便在疫情等非常法环境下也并未完全消失[47],但这种抵抗的效果终究是非常有限的,并且随着博弈强度的增加,用户在媒介使用及日常生活中也要承受更大的身心困扰。
(三)信息隐私构成的复杂化与数据采集过程的动态化
智能传播时代信息隐私的构成类型、披露及让渡方式、功能与价值、影响及后果等已经发生复杂的变化,远不止民法典中所表述的“个人隐私是指公民个人生活中不愿为他人公开或知悉的秘密”这样笼统。 网络个人信息治理与隐私保护的前提是在学理层面厘清隐私的本体,网络传播中的隐私首先是作为信息的隐私,需要从信息科学、传播学、符号学等角度去具体界定信息隐私的构成要素,然而这一方面目前尚未见到系统可靠的研究成果。 诚然,隐私的边界以及隐私权的适用性长久以来就是一个极为模糊的概念,但应注意到,互联网、大数据与智能传播时代的到来或许并非是对本就模糊的隐私本体的搅合,反而很有希望成为将隐私构成要素进行细分与量化的契机。 另一个现实问题是,随着智能监控社会的程度日益深化,个人隐私保护的实践变得愈发难以达成,甚至被称为“隐私已死”。 从互联网与算法传播的基本逻辑看,个体欲在今天的智能监控社会中守住绝对的私密空间难度极大,即便在理论上可行,在现实中也将承受比个人隐私泄露更为严重的代价。 伴随着平台数据采集过程的动态化,用户对个人隐私的控制权也应是延伸与动态的,从隐私保护的角度看,在个人数据披露与让渡后,个体仍应享有对数据的所有权与控制权。
(四)两种隐私权:算法环境下隐私的权利与隐私的权力
从传播、媒介与社会的视角看,隐私不仅是法学中所指的人格权、名誉权中的权利,也是一种控制空间与他人的权力。 数据之于信息社会就如同石油之于工业社会,以大数据为核心资源的新媒体平台实则是一个多方主体争夺个人信息隐私的场域,平台与平台的斗争、平台与用户的斗争、用户与用户的斗争均贯穿其中。 总而言之,谁拥有数据,谁就在网络社会中拥有权力。 应当看到,网络平台尤其是超级平台对各类个人信息隐私的无限收集,危害的不仅是作为自然人的法定隐私权,其打破私人空间边界、运用算法与人工智能技术以获取控制民众权力的行为也有挑战现实世界的政治结构与公权力的可能。 同时,介于平台与个人之间的各级、各类社会组织也在不断加深利用新媒介收集个人信息隐私的程度,从而强化对组织成员身心各方面的精准控制。 随着媒介化社会的日益深化,法学领域也开始对作为人格权、名誉权的隐私权本体进行反思,正是隐私权的“私权”性质致使其在个体与平台间的巨大不对等关系下失去了得以保障的实践可能,因此应将数字时代的隐私权纳入“公权”的范畴予以保护及治理[48]。
最后,基于本文的研究发现,提出几点关于平台治理与用户隐私保护的建议:其一,智能监控的主体仍是处于垄断与寡头地位的平台,而反垄断不仅是对超级平台的监管,也需要保护、扶持能够带来市场竞争的创新者,创新的形式诸如采用不同的个人信息收集与使用方式、不同的算法内容推荐机制、不同的内容运营理念、不同的用户服务与盈利模式等。 其二,网络治理的对象并不仅限于互联网平台,还应重视平台与个体之间的组织、群体、社区、企业的角色及责任。 事实上,在很多时候正是这些作为中介变量的“组织因素”造就了互联网平台的垄断与专制,因此需激发各类社会主体的责任意识与行动。 其三,互联网平台应继续加强对算法模型的优化升级,纳入用户的自主选择与参与,建立更具用户信任的算法模型。 基于算法中介的传播虽然取得了显著的流量,但其是否真正达到了实然的传播效果仍旧存疑,算法环境下的经济效益与社会效益并非“势不两立”,一套不断趋于完美的算法可以在很大程度上兼具社会效益与经济效益。