APP下载

人工智能时代成瘾性算法的危害及其规制问题研究

2024-12-31魏亚楠

辽宁经济 2024年8期
关键词:信息茧房

〔内容提要〕经营者为了获得用户更多的注意力以实现高额回报催生了成瘾性算法。成瘾性算法主要通过行为触发、重复使用行为、积极及时反馈、沉浸式场景创造上瘾模型,并且穿插无限滚动播放、蔡格尼克循环、显著标识设计等技术手段使用户对产品形成被动依赖。而成瘾性算法对正常社会秩序形成了潜在威胁,经济方面固化垄断格局、侵害消费者的合法权益;社会方面促使信息茧房形成、群体价值观极端化以及算法主导意识形态等风险与损害;个人层面,会损害个人的心理健康乃至身体健康。为此有必要对成瘾性算法进行规制,经济手段上对垄断的分析注重注意力判断维度,技术手段上完善算法披露,伦理层面尊重个人拒绝权利,以实现对成瘾性算法的有效规制。

〔关键词〕成瘾性算法;暗模式;注意力经济;信息茧房

一、问题的提出

算法已经成为当今社会发展的全新引擎。各大互联网平台利用层出不穷的创新算法,吸引用户并创造巨大收益。不可否认的是,持续迭代的算法从根本上革新了市场竞争格局。与传统市场利用信息差进行价格竞争不同,数字经济时代促进了信息的自由传递,信息的完全透明和无限制的自由传递,在理论层面消除了买方与卖方之间的信息差,极大程度上改善“信息不对称”带来的困境。数字经济时代利用大型平台汇聚数据优势,利用算法形成竞争优势,形成“平台—数据—算法”的三维竞争结构。

但是,算法作为“在计算或解决其他问题的操作中要遵循的过程或规则集”却并不能达到客观的“技术中立”,“算法背后潜藏着控制算法设计和研发过程的资本权力”,然而资本权力仍是由人控制的,资本天生所具有的逐利性决定了算法的开发和控制者以“技术无法骗人”的伪善面具无限攫取高额利润,从而实施垄断、破坏市场公平、损害消费者福利甚至主导意识形态等行为。权力与资本的勾连使得算法运营商在提供服务的过程中偏离用户选择,威胁用户信息甚至出现权力的僭越等权力异化现象。目前,已经有实例证明在传统社会中出现的问题,在算法时代会以更隐蔽的形态出现,例如2020年美国FTC联合46个州检察长对脸书(Facebook)提起反垄断诉讼,认定其滥用市场支配地位,在社交媒体网络上实施数据封禁政策等危害竞争的措施;2021年开启中国反垄断执法元年,国家市场监督管理总局对阿里巴巴实施“二选一”的限定交易行为进行处罚。以算法形式出现的新型反竞争行为已经引起了国内外学者的注意。但是对于大数据和算法赋能的成瘾性技术让消费者产生对于平台的依赖,以此来巩固市场力量固化垄断的问题依然需要给予更多关注。

算法上瘾似乎已成为日常生活的常态,人们对于各种平台应用的依赖已经不单单是日常生活空余时间的消遣,而更多地偏向于被动的依赖:社交媒体的精准推送使得消费者沉溺其中,点赞浏览量、完成任务提取现金等等奖励机制大肆掠夺消费者的注意力,更有甚者会因短视频无限滚动刷屏产生入睡困难。人们明确知道欲求摆脱对某一物品的上瘾,最简单的方式即远离它。但是目前来看,智能手机、应用程序、网络平台已经成为现代生活的必需品。因此有必要对成瘾性算法做出适当的规制,在不侵害企业创新的前提下,规范企业行为,承担社会责任。2023年发布的《生成式人工智能服务管理暂行办法》中也明确要求提供服务者要“指导使用者科学理性认识和依法使用生成式人工智能技术,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务”。

我国国内对于成瘾性算法的综合性研究较少,学者们已经肯定了对成瘾性算法进行规制的必要性,对现实生活算法运营商利用“上瘾”模式设计算法这一长久未引起重视的现象提出疑问。但是对于成瘾性算法的具体运行机制以及对成瘾性算法的规制方法,仍然处于起步阶段。对于形成何种具体的规制方法,多数停留在原则性的指导和框架性构建。

在国外因其计算机科学与技术发展较早,故而对于成瘾性算法的关注也早于国内。互联网经济最为重要的盈利模式即是广告收入,实现更为精准的广告投放并诱导消费者最终实现购买行为。有学者曾经断言“为了实现利润最大化,在理想状态下,这些互联网企业干脆在我们的大脑中植入一个芯片,用于收集我们的个人信息,从而能够为商家勾勒出一幅清晰的画面,解开用户的所思所想”。在理解互联网盈利模式基础之上,就可以理解互联网平台为何对于成瘾性算法的追求如此“狂热”。

2024年2月17日,欧盟《数字服务法案》(Digital Services Act)正式生效,该项法案旨在营造公平、透明的互联网服务环境,进一步压实了超大型平台内容审查、信息报告的义务。法案中明确规定了在线平台提供者不得通过在线页面设计欺骗或者操纵数字服务受众,损害其做出自由的、知情的决定的能力。同时,法案中要求超大型平台有必要回应欧盟的请求,并通过科研机构的第三方中介来实施信息报告义务,阐明算法设置的动机。美国提出的《算法问责法(2022)》通过建立算法评估机制和信息公开披露制度来对成瘾性算法进行规制,破解使消费者处于不知情状态下的算法黑箱。具体而言,表现为要求运营商在算法实施运用之前,向美国联邦贸易委员会(以下简称“FTC”)提交简报,由FTC进行筛选从而向公众公开。

比较欧盟和美国的监管措施,欧美之间的监管措施出现分野。因为目前在欧盟市场上占据优势地位的大部分均为美国企业,所以欧盟对于数据流通的态度表现得更为谨慎,对于算法的规制、平台履行信息披露的要求更加严格。

本文旨在阐明:一是算法上瘾的运行机制,明确成瘾性技术背后的运行逻辑,寻找理论和实践支撑;二是成瘾性算法的危害,阐明对于成瘾性算法进行规制的必要性;三为提出对成瘾性算法进行多维度规制的设想。

二、成瘾性算法的运行机制

(一)行为触发——把握“首次注意力”

根据行动力底层公式:B=MAT。B即Behavior,指个人行为;M即Motivation,指行为动机;A即Ability,指行为能力;T即Trigger,即为触发。互联网平台深谙这一行为机制,以某音短视频平台为例,起初人们使用该应用的动机(即M)可能是作为消遣,追求快乐或者逃避痛苦;而某短视频平台的界面设置也十分简单,甚至无思考即可完成浏览短视频的基础功能,也因此获得低龄未成年人和老年人的关注,简单易上手的界面设置充分地降低了用户的使用壁垒,也即具备了A。最后,为了抓紧首次注意力形成“触发”(即T),平台运营商采取了多种触发机制,例如喜好触发、从众触发、互惠触发,等等。因此在新用户初次使用短视频平台时,会向其推送点赞量和浏览量较高的视频,通过已经记录公众共同喜好推导、贴近个人喜好,紧紧抓住“首次注意力”的15秒,刺激大脑分泌大量多巴胺。

(二)重复使用行为——摆脱脱敏反应

初次带来的新鲜感只是暂时的,为了能够延长用户对产品的注意力,需要摆脱脱敏反应使多巴胺降低。对此,各类产品的算法主要采取了以下措施:

1.极端个性化推荐

个性化推荐算法的应用有效解决了互联网世界中的“信息过载”问题,有效降低用户的搜寻成本,能够使供给和需求信息快速匹配。平台运营商利用个性化推荐算法,记录用户的搜索、浏览、点赞、购买等信息来刻画用户“数字画像”,能够精准地“投其所好”,给用户制造一种没有什么比该产品更懂我的错觉,利用喜好极大影响用户的注意力分配。有学者将极端个性化推送分为三类:涉及极端内容的个性化推送(如暴力、色情)、针对弱势群体的个性化推送以及针对心理漏洞的个性化推送,实现对人们注意力的操纵。而随着人工智能技术的发展,未来的个性化推荐将在上述基础上实现进一步进化,能够达到与个人更完美的契合。

2.无限滚动播放

不论是短视频平台还是线上购物平台,都采取了无限滚动(Infinite Scrol)播放的界面展示模式,用户只要一指轻轻下滑就能看到新内容,给用户带来一种“不可控的控制感”,充分地做到了以用户为中心,停止或继续由用户本人控制,而继续重复下滑行为,依赖于个性化算法的推荐,下一条内容又总能够落入人们的兴趣范畴之内,使人欲罢不能,而人们永远无法预测下一条内容是什么的未知感和期待感更高强度地刺激了多巴胺的分泌。同时,无限滚动这种近乎“完美平滑”的产品设计,消除了用户意识越过他者的障碍,从而能够直达目的并且尽可能地延长用户的使用时间。

3.蔡格尼克循环

人的大脑总是对短期内有能力完成却未结之事印象深刻,总有一股催促完成、有始有终的内驱力,即被称为“蔡格尼克效应”(Zeigarnik Effect)。一方面,已经有学者认为前述的无限滚动播放带来的上瘾行为会导致强迫、焦虑和抑郁,不断刷新的文案和图像营造出一种“无限可能性”的错觉,这使得用户始终认为自己的“使命”或者“任务”仍未完成,形成催促完成的紧迫感。另一方面,互联网各大应用平台也在创造蔡格尼克循环,典型如阅读网站到文章高潮部分设置付费,短视频剪辑中总是会将悬念留到最后以达到悬而未决,激发用户的好奇心,等等。

(三)积极及时反馈——培养使用习惯

1.福利机制

福利机制在平台应用中主要表现为两种:第一种即为新手福利机制,针对新用户往往会采取多种优惠措施:比如各大购物平台会推出首单优惠甚至是免费、一分钱买回家的新手福利,除此之外还有支付宝、抖音都有推出的邀请新用户立得现金的福利机制。这种针对新手的福利措施能够让人被快速吸引,同时,“损失厌恶”的心理学现象使大部分用户都很难放弃类似的“小恩小惠”。第二种则是促使用户培养更为长久的使用习惯而采取的长期福利机制。如短视频平台都设置有积累观看时长以获取现金,购物平台也采取了“种树”的奖励措施,即激励用户商品界面浏览获得“肥料”,积攒“肥料”满一定数额即可获得相应的实物奖励。福利机制采取了一种较低的门槛甚至是奖励来触发用户使用,又持续依赖简单的福利机制督促用户不断增加使用时间甚至是金钱投入,最终通过多次的重复行为形成习惯。

2.显著标识设计

各类社交平台上都存在利用颜色鲜艳、图标占比较大的标识设计吸引用户注意的情况。例如微信朋友圈的点赞设计、消息提醒,都采用了鲜明的红色并且占据界面显示的显著位置。类似的显著标识设计,一方面作为消息提醒提高用户打开产品的次数从而增加使用时间,有研究机构早在2018年的研究数据表明,安卓手机用户平均每天解锁手机65.8次,平均每8分钟就要解锁一次手机,同时,明显的消息提醒,会进一步加深“错失恐惧症”——担心没有及时查看消息而错过好友的信息和动态,就会通过多次解锁、多次打开社交媒体以形成接近“强迫”的满足,另一方面,点赞按钮的设计极大地满足了人们心中存在的认同感,尤其是对学生群体存在较强的自我认同需求会更加关注自己发布的内容是否获得他人的喜爱,为了获得这样的满足感,用户又会对自己发布的内容倾注心力以期获得普遍认同和赞赏,进一步增加使用时间。

(四)沉浸式场景创造——形成深度依赖

为了能够使用户付出更多的精力在各类应用中,算法运营商采取的模式是为用户创造更为沉浸式的场景甚至是消除与现实世界的差异,其中重要的措施即满足人的社交需求。人类社会中社交是必不可少的一步,不论是家庭链接、工作需要、营销推广或者是技能提升都可以通过线上社交媒体实现,通信类平台在此种情形下获得了天然的优势,而其他类型的平台为了能够加深用户黏性,也采取了“开启通讯录权限推荐好友”“一键快捷分享”等机制创造更为投入式的社交环境。

三、成瘾性算法应用的损害与风险

应用成瘾性算法不断增强用户黏性已经成为各大算法运营商与控制者的目标之一,但是成瘾性算法的应用已经冲击了原有的经济及社会秩序,其所带来的经济损害典型表现为损害竞争秩序,加深单纯大型平台垄断的格局,其次,不利于消费者保护,侵害其自主权和知情权;社会层面的损害则表现为形成信息茧房,促使群体极化加重交流障碍并且使用成瘾性算法对个人的心理健康也有一定影响,加重紧张焦虑情绪产生甚至造成睡眠障碍。

(一)经济层面的损害

1.牢固的垄断格局形成

互联网经济中因为数据竞争表现出的规模经济效应和范围经济效应极为明显,尤其是在我国大人口基数的数据优势之下,已经成长起来的巨型平台积累了大量的用户数据,能够创造出更为精准的用户画像,利用推荐算法为用户量身打造符合自身个性化需求的产品从而赢得更多用户的青睐,而增长的大量用户基数,又能进一步精进推荐算法,从而形成“数据—算法—流量”三者之间的死循环,在数据市场商形成“优者更优”的局面几乎阻挡了中小型企业进入市场参与竞争的通道,并且数据又具有较强的锁定效应和较高的转换成本,对于用户而言,自身的个性化需求得到了尊重和满足,同时节省了大量搜寻成本,已经习惯了算法经营者提供的服务,经过自我强化后出现了路径依赖和锁定效应从而成为某一数字平台的忠实拥趸。一旦数字平台通过成瘾性技术吸引大量消费者,多宿主现象将不复存在,进一步固化了现有市场的垄断格局。在此种情况下,由技术进步带来竞争繁荣的场面不再,取而代之的则是各个大型平台通过强大的技术霸权对消费者的施压。再者,大型数字平台已经不满足于对单一市场的控制,不断通过关联公司拓宽业务范围,实现数据利用层面的经营者集中,也即意味数字平台在某一市场中所获得用户精准画像存在被运用到平台生态系统中的各个关联公司的可能性,使平台生态系统依然能够基于用户的使用习惯,以算法为基础为用户持续提供精准个性化服务,强化用户对平台的依赖,从而形成平台系统生态型垄断。平台生态型垄断的形成,甚至会僵化整个市场,原有的对其形成的多个平台的拥趸直接转变为对一个平台的深度依赖。

2.始终被蒙蔽的消费者

2022年10月,经济合作与发展组织发布的《黑暗商业模式报告》中对黑暗模式(Dark Patten)给出的定义是通过数字选择框架因素(特别是在线用户界面)损害消费者自主选择权的商业实践的统称。在其定义的黑暗模式表现形式中,“不断重复”(不断重复类的“黑暗模式”类似要求消费者做一些有利于商业的事情,会造成消费者时间和精力的浪费)和“障碍”(障碍类的“黑暗模式”是使任务流程或交互更困难从而利用消费者的惯性行为或消磨消费者的时间和精力。针对不同选项创建难易不同的点击路径是在成瘾性算法中经常出现的技术手段。例如利用福利促使消费者浏览重复内容的广告,形成“纯粹接触效应”,在一遍又一遍的接触过程中,消费者对自己不需要或者不感兴趣的内容产生喜欢,从而产生购买欲望。而在这一过程中,消费者并不清楚自身的购买决策是在被引诱的情况下进行的。在数字平台暗模式的诱导或操纵下,消费者的经济福利将受到损失。

(二)社会层面的损害

1.信息茧房的形成

“信息茧房”是凯斯·桑斯坦首创用于形容互联网信息环境的词汇。成瘾性算法中对于个性化推荐算法的滥用,会导致信息分发的方向趋于固化,即使是在信息繁杂的互联网海洋之中,依然能够沉浸在自身兴趣范围之中。信息茧房的形成首先使得用户作为人本身,丧失了主动选择的机会,长期被包裹在固有的兴趣爱好之中,缺失了对于未知事物探索的好奇心甚至是注意力,同时会固化原有的思维模式形成狭隘的视野。其次,信息茧房的形成会进一步加深信息鸿沟,用户不仅缺乏探索新事物的主动性甚至还因此缺乏迈向新领域的客观条件,用户并不能完全控制推荐算法的走向,即使浏览、搜索过已经改变的兴趣内容,但是被推荐的内容也不一定受此影响而立马变更。平台算法的更新迭代尚未跟上人脑思维的转换速度,并且平台算法承载着算法运营商的意志。由此进一步加深信息鸿沟,没有降低反而增加了新信息的搜寻成本,也削弱了不同层级、不同群体之间的联系。

2.群体极化的出现

发达的社交网络使具有共同特点的人聚集形成自己的圈层,而群体之间同质化的信息传播和正向反馈又进一步放大了集体认同感,由此整个团体的价值观出奇一致并趋向极端,形成群体极化,尤其以互联网“饭圈文化”的出现为例,喜欢同一个明星的粉丝能够在互联网的推动下迅速聚集在一起甚至实施一些过激的协同行为,比如极端粉丝可以出于对明星的喜爱漠视道德法律的要求,而平台各种致人成瘾的使用方法、带有倾向性的搜索结果和各类算法推送则显然加剧了极化的过程。以“胡鑫宇案”在社交媒体上的广泛讨论为例,从最开始阴谋论的少数鼓吹者到最后即使有明确的官方通报仍然有一定数量的网民相信其并非自杀,坚信“阴谋论”者在有关阴谋论的观点收获点赞的正向反馈中逐渐加深对于“阴谋论”的认知,尤其是收到有共同观点的群体附和之后,更加对于“阴谋论”深信不疑,表现出了价值观的极化,而这种极端的程度甚至可以轻易摧毁权威机关的公信力,已经对正常的民主、平等交流的社会环境造成威胁。

(三)个人身心健康的损害

成瘾性算法利用的基础性原理即不断刺激大脑的边缘系统,持续性刺激多巴胺的分泌,从而持续性延长用户的使用时间,尤其以无限滚动刷屏的短视频为例,无限滚动设计的原创者阿萨·拉斯金甚至表示“我从无限滚动中学到的一个教训,就是优化易用性并不意味着对用户或者人类来说最好”。自动播放的短视频会对人的中枢神经系统产生持续的高强度的刺激,长时间的紧张状态势必会增加疲劳感。如果缺乏戒断机制,则更容易出现焦虑、抑郁等心理疾病。而在算法社会中,已经有用户主体能感知到算法所带来的焦虑,其中算法沉迷焦虑亦是算法焦虑的一个维度。短视频社交媒体的依赖也会影响人们的日常行为。有研究表明短视频社交媒体的使用和夜间社交媒体使用会影响睡眠质量,形成睡眠障碍。

四、成瘾性算法的规制

成瘾性算法给正常的社会秩序造成了严重的损害,因此对其进行规制是十分必要的,并且算法已经具有成瘾性,即用户已经产生了被动性地依赖,依靠用户主动戒断的可能性较低,有必要引入外力的强力规制,且应当意识到戒断“成瘾性算法”并不意味着要“戒断数字经济”,人们应当在非剥削的情况下享受数字经济带来的福利。同时,对于成瘾性算法的认识,不应该仅仅停留在技术手段的认知,成瘾性算法的底层逻辑与赌博行为几近相似。在娜塔莎·道·舒尔在其著作中阐述对于赌博场所、赌博机器的设计中,遵循增强用户使用时间、形成“以玩家为中心”的赌博体验,以及“差一点儿就能赢”的视觉效果等设计与当前的互联网算法设计共享了一套相同的底层逻辑,但是成瘾性算法仍然处于监管的灰色地带,不论是《个人信息保护法》,还是《民法典》中有关隐私保护的规定,以及《消费者权益保护法》,都不能够完全且切实地规范成瘾性技术,而赌博则是在多数国家明令禁止的行为。为弥补监管的缺失,有必要采取以下三个措施对成瘾性算法进行良好的规制。

(一)反垄断引入注意力成本考量

让·梯若尔曾对数字经济时代所谓的“注意力经济学”进行论述,在高度一体化的市场中,信息的传播成本几乎为零,困扰人们过多的选择,如何能够在繁杂的交易中分配自身的注意力就成为一个重要的经济问题,而在成瘾性算法的设计中,最为关键的,就是对用户的注意力进行剥夺。互联网平台可以通过攫取消费者的注意力实施各种垄断行为,例如能通过获取用户的注意力而得到更多的数据占据市场支配地位,从而实施“大数据杀熟”的差别对待行为、“二选一”的限定交易行为。注意力成本在数字经济时代垄断行为的产生起到了重要的作用,将其纳入垄断行为的判定中是至关重要的。其次,根据互联网的盈利模式来判断。广告收入是当下互联网行业的命脉收入,广告投放能够产生预期效果就十分需要用户的注意力分配,而大数据获取个人信息以及算法更加精进投其所好的最终目的依然是能够获得用户的注意力。然则,人并非机器,个人的注意力如同贵金属一样是有限的,具备稀缺性的特征,个人的注意力在数字市场具备了传统市场中货币的性质。平台利用成瘾性技术获取超过市场水平的注意力并让消费者承担注意力被过度支配产生的成本,无异于传统经济中垄断组织向消费者提高价格、承担金钱成本,因此有必要将个人注意力成本纳入反垄断执法的考量中。

(二)明确算法事前披露机制

目前,针对算法实施应该采取事前备案的算法透明原则还是应当采取事后披露的算法问责机制,在学界仍存在争议。有学者认为事前告知算法的具体运行规则会导致人们刻意迎合,从而失去了算法调整的原本目的,扰乱社会秩序,但是笔者仍然坚持应该实施算法的事前备案机制,因为现在的技术发展即使将全部源代码公开,能够成功运行算法并且阐明算法设置的具体规则的人也并不占多数。其次是当前人工智能技术的引入,即使对于算法技术开发商而言也对产生结果的解释存在一定的困难,因为人工智能能够按照算法的要求持续进行自我迭代,而迭代的具体过程的解释、分析难度较大,且目前故而应该坚持事前备案的机制,同时应当完善细化备案内容,以算法类型和企业提供的算法自评估报告为基础进行实际测试。可根据算法披露的等级、披露面向的人群两个层次进行考虑,来完善算法披露机制。我国《个人信息保护法》中对算法公开的要求可以视为“初级公开”,欧盟在《通用数据条例》中提出的披露算法运行逻辑和具体参数的公开可认为是“具体透明”,美国在《过滤气泡透明度法案》中提出的算法源代码公开为“完全披露”。初级公开应当对整个社会群体保持公开,并且采取清晰、简洁、易懂的方式进行公开。具体透明的算法披露等级可以根据平台本身的性质、面向人群有选择性地向平台用户公开;而对于完全透明的算法披露等级,为了不限制算法经营者的创新积极程度和对算法经营者自身商业秘密的保护,应该采取审慎态度,只有对于具有社会煽动能力的特殊企业才有必要实施完全披露,同时完全披露的对象应当限制在政府监管机构。作为补充的是,政府的监管仍有面临腐败侵蚀的可能性,可以参考欧盟的《数字服务法案》,在算法运营商和政府监管机构之间引入完全中立、不存在利益冲突、足够客观、具备成熟技术经验的第三方研究机构,由其对完全披露的算法源代码进行备案、试验及审查。

(三)尊重个人拒绝权

“人们用失去隐私、丧失个人生活和失去批判谨慎的代价换取可预测性、安全性,以及人类寿命的延长”。成瘾算法带给人们巨大诱惑,使人不得不为了享受技术福利而牺牲自身的权益,形成“隐私悖论”现象。但是应当明确的是,个人信息、个人权利的让渡与否的主动权应当充分掌握在每一个个体手中,个人有选择是否允许平台收集个人信息的权利,也有选择允许收集多少信息以享受技术福利。但是算法运营商凭借自身所形成的算法霸权,以及对利益的追求,漠视个人选择,甚至对个人选择的自主性设置障碍,在能否选择个性化推荐的这一过程中,企业在实践中仍然在打“擦边球”,或是使得关闭个性化推荐功能按钮不显著,或是通过默认同意个性化推荐的方式进行。我国的《个人信息保护法》第二十四条第三款表明对个人权益有重大影响的决定,个人有权拒绝个人信息处理者仅通过自动化决策的方式做出决定,《互联网信息服务算法推荐管理规定》第十七条规定,算法推荐服务提供者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。由此我国的立法中明确地规定了对于个人拒绝权的适用条件,为个人拒绝权的行使提供法律支撑。同时,应该意识到,在算法时代对个人拒绝权的尊重,是将道德伦理嵌入到技术发展过程中,真正地落实了“以人为本”而不是“以技术为本”的道德伦理要求。即使是在算法时代,个人仍然具备充分的选择自主。个人拒绝权保留了主体对于数字人格的控制,实现自主决定的自由,是捍卫人性尊严的重要工具。因此有必要充分尊重个人拒绝权,并且完善个人拒绝权的相关产品设计,对于向平台提出关闭个性化推荐服务、注销平台账号等界面设置应该更加简洁,不应在实施个人拒绝权利的过程中设置无端阻碍。此外,要强化责任体系,义务的良好履行才能保障权利的顺利实施,不应再将前述的“隐藏关闭个性化推荐”“默认自动化推荐功能开启”等行为仍使其处于法律规制的灰色地带,可以采取劝诫、警告等柔性处理方式保障个人拒绝权得以实施。

(作者单位:华东政法大学经济法学院)

猜你喜欢

信息茧房
2017年国内社交媒体批评研究概述
浅析基于算法的个性化信息推送服务
新闻客户端个性化推荐引发的“信息茧房”现象
后真相时代的信息传受方式与应对路径
微时代大学生“信息茧房”效应干预
“信息茧房”与高校思想政治教育应对途径思考
社交媒体时代下新闻产需变化刍议
“信息茧房”禁锢了我们的双眼
“信息茧房”禁锢了我们的双眼(观察家)