科技与社会视角下算法媒介伦理问题研究
2021-09-22谢啸轩
谢啸轩
关键词 算法;科技与社会;媒介伦理;算法权力
中图分类号 G2 文献标识码 A 文章编号 2096-0360(2021)12-0041-03
2021年“3·15晚会”曝光的失范企业案例中,信息安全、老年人数字生存、网络虚假广告等社会问题重新出现在大众视野之中。算法推荐没有给人们最优的选项,反而将劣质广告商品呈现在平台榜首[ 1 ]。以用户信息安全与隐私保护为原则的智联招聘,却大肆贩卖求职者个人信息,且形成了个人信息泄露、买卖、精准诈骗的黑色产业链。360搜索被曝光的医药广告造假链条,以及其算法推荐虚的假药品医疗广告,并借公立医院之名进行竞价排名。UC浏览器涉及为无资质公司投虚假医药广告。在人们的需求催化下,推荐算法被发明,然而缺乏伦理道德准则的算法也在不断地造成社会问题。媒介伦理的研究对传播真实性、个人隐私权社会责任等方面的关注便尤为重要[2]。
1 研究缘起:“数据凝视”之下的社会
“算法”(algorithm)一词得名于波斯数学家花拉子密。公元9世纪,这位数学家写过一本书,讨论用纸笔解决数学问题的技巧,书名为“al-Jabr wal-Muqabala”,其中的“al-jabr”就是后来“algebra”(代数)这个词的前身[ 3 ]。布莱恩·克里斯汀和汤姆·格里菲思表示,算法是为了帮助人们从大量的信息中找到最佳答案,以解决“最优停止”(optimal stopping)的一類问题,同时也为人们解决了有限的时间、空间和注意力[ 4 ]。个性化推荐算法虽然因为近年来一些基于算法的内容平台的兴起而受到关注,但事实上个性化推荐早就进入网络,搜索引擎、电子商务平台等都早已采用推荐算法[5]。福柯曾对临床医学进行基于视觉-权力-知识的诠释,认为过去充满了对病人非人化而只是看作器官的“医学凝视”,在现在社会同样也充满了将个体视作数据的“数据凝视”,同构了数据空间与社会空间,人类也成为了“数据景观”。
国内传播学者也指出,平台算法一直处于封闭伦理状态,且算法工程师伦理水平一般,无法为用户提供“算法透明度”的信息[6]。在伦理层面,算法也在威胁古典自由主义技术伦理中康德的自主原则(Respect for Autonomy)、密尔的伤害原则(Harm Principle)以及洛克的个人主义原则[7]。由于数据偏差造成的人脸识别中的算法偏见、算法歧视和深度伪造问题,以及发达国家的数据霸权尤其受到关注[8]。国内学者热衷研究算法推荐新闻造成的信息茧房问题,今日头条App等应用定制的个性化推送新闻限制了用户的视野,人们只能看到自己爱看的新闻,加剧了信息茧房问题,重大政策、时事、社会新闻更少被关注,同也会加剧群体极|化[9]。算法研究学者以及从业人员都在密切关注算法带来的问题,在人工智能、大数据被广泛应用的背景之下,人们的生活全方位的被算法介入[10],用户的主体地位发生异化,媒介伦理研究则格外重要。
算法带领人们走入后人类主义时代,人们不得不接受算法的驯化,享受且被迫享受档案化和数据化生命的监控和管制。谷歌设计伦理学家特里斯哈里斯总结了科技“劫持”人类心智10宗罪,他表示:“一旦你掌握要点,操纵用户就像弹琴一样优雅简单。”[ 1 1 ]《大数据杀伤型武器》(Weapons of Math Destruction)书的作者卡西欧尼尔曾从事数据分析师的工作,她的主要工作是从互联网上收集大量关于个人用户的数据,包括上网的地理位置和时间、浏览的网页、在社交媒体上的点赞、点击的网页广告、在网上购买的产品等,然后建立数学模型,测用户的行为,以更好地向他们展示广告、兜售商品。但同样算法也收集了面部数据、行为特征、社会规则以及社会中存在的偏见。在技术、社会以及算法内在隐含的性别、阶层、种族问题的研究中,需要计算机科学、法学、伦理学、政治学、传播学等学科政治交互的视角不断进行补充[9]。
2 科技与社会:经济、社会、政治的算法权力嵌入
算法作为当今社会热点议题,其研究离不开科技与社会(Science,technology and society,STS)视角,科技与社会是一门跨领域学科,研究社会、政治和文化如何影响科学研究与技术发展[12],以及反之科技如何影响社会、政治和文化。STS研究者关心科技社会的复杂面貌、科技发展的社会意涵、争议等各种问题。
数字资本主义语境下,平台产生了海量的数据,数据对企业来说是一种隐形的资产,同时也是这个时代最有价值的资源[ 1 3 ]。但是,大数据体量之大、种类之繁以及产生速率之快,海量的数据并不都是有价值的,从海量数据中提取有用的、针对性的信息需要花费很大的时间成本,各类型的推荐算法为解决各类实际需求而诞生[ 1 4 ]。在算法赋魅下,算法已内化为人们日常生活中的一部分,它推送人们爱看的宠物视频,为人们推送符合他们兴趣爱好的电影,节省了人们的时间,提高了人们行为效率[15]。然而,可购买的微博热搜、可租下的首页推荐位置,这仿佛在告诉我们只要付钱,你就是能成为算法游戏中的被曝光者,这无疑也是在直白地告诉大众,算法是不公正的。算法在视频推送中产生了大量的问题,极端、低俗、暴力的视频更容易被推送到平台首页。YouTube名人Logan Paul在2017年12月31日上传一段影片,影片拍摄地点是被称为日本“自杀森林”富士山下的青木原树海,影片的标题为“我们在日本自杀丛林找到一具尸体”,并拍下尸体影像以及与同行伙伴嬉笑场面。这部影片不但通过了审核,还被官方人员手动挑选上热门,该事件将YouTube推向舆论中心。在这个事件中平台以及平台监管人员的严重伦理失范的问题,这个时间后YouTube官方也提高了检查机制,确保这类影片不会出现更不会被推荐。
福柯将“生命政治”定义为一种新的权力技术,这种权力技术对生命极其一举一动进行监视、干预、扶植、优化、评估、调节、矫正。而在“算法政治”的干预下,个体的自由甚至民主的基石受到攻击。2021年3月17日,英国《卫报》爆出英国的数据分析公司Cambridge Analytica(剑桥数据分析)在美国大选中为川普服务。而这个大数据服务公司的数据来源于非法获取的Facebook的用户信息,涉及到的用户人数高达5 000万人,这被称为是“Facebook历史上最大的数据泄露事件”。2021年3月25日,Twitter、Facebook、Google等巨头公司CEO就今年1月发生的国会大厦暴乱事件接受国会质询。国会认为,这些社交平台缺乏问责机制,暗中助长了此类暴乱事件的发生,而平台发则辩称此事事关言论自由。
在算法的权力关系下,权力属于拥有代码者,被算法拒绝或被错误定义的用户无法使用自己的算法来对抗,这是不平等的权力关系。人们在互联网中的一举一动被迫具身地为算法提供数据,算法也大大改变了人类社会的经济、政治层面[16]。
3 算法推送的“波特方格图式”推理分析
算法推送应用在社交媒体、搜索引擎以及所有常用互联网应用中,除了呼吁马克思韦伯所述的价值理性以外,将具体的平台失范案例进行媒介伦理推理也至关重要。在西方道德哲学史上,提倡运用理性主义的方法得出指导行为的准则和规范,存在三种代表性道德推理形式:亚里士多德的“实践三段论”“波特方格推理模式”和“博克模式”,在传播伦理中都有不同的应用推导。20世纪50年代,哈佛大学神学院教授拉尔夫·B.波特提出了波特方格推理模式,这是一种道德推理形式,它的特点在于引入了“忠诚归属”,从而为我们分析个人所处的道德困境和在两难中如何做出道德抉择提供了一个思路。波特方格按照道德推理按照“定义(definition)→价值观念/标准(values)→伦理准则(principles)→忠诚归属(loyalties)”这样四个阶段进行推理,下面将被央视3·15点名的360搜索与UC浏览器的虚假医疗广告事件进行媒介伦理推理,从平台与调查记者角度进行分析。
首先,在该新闻事件的“定义”环节中,应对搜索引擎中虚假广告造成的用户损失进行充分评估,在发生“魏则西事件”悲剧后,仍发生了此类不可容忍虚假医疗广告事件。平台提供了搜索引擎竞价服务增加收入,同时却完全失去平臺把关作用,放任虚假医疗广告与疾病关键词产生强关联并出现在搜索结果前列。调查记者则通过跟踪采访曝光该违法行为,并曝光在大众视野。在“价值观念/标准”环节,平台方一味地追求经济价值和最大商业回报,不以史为鉴,再次使得虚假医疗广告流入搜索引擎。调查记者的职业标准使他们敏锐地发现互联网中伦理失范问题,以“新闻真实性”为第一价值并及时跟踪调查。在“伦理准则”环节,正如国内学者所调查显示,平台算法工程师伦理水平一般,没有深刻意识到算法之恶。调查记者诉诸功利原则,为了消费者、公众的权益积极调查。最后在“忠诚归属”环节,我们可以看出,平台尽管宣称对用户负责,但平台方的行为只是忠诚于股东、资本和本身的既得利益;算法工程师则单纯忠诚于雇主;部分算法工程师虽然能意识到算法产生的信息茧房、过滤泡等问题,以及技术更新带来的身为算法劳工的超时劳作,但仍无力做出改变。调查记者则忠诚于全体公众,为公众负责。
在算法赋魅时代,人们不能单纯相信平台推荐的结果,忠诚于资本且伦理意识薄弱的平台方无法保护用户权益,反而在最大程度将用户异化为提供数据的数字劳工。人们也不能单纯以一种技术乐观主义或中庸之道看待算法的发展,在消费者权益日的曝光下,平台方受到的处罚无法弥补对用户造成的伤害,用户必须对算法祛魅,在新闻报道的提醒声中对抗算法的控制[17]。
4 结语
算法给人们带来了毋庸置疑的帮助,平台与算法,用户与算法的关系产生了融合共生、人机一体的具身的态势。后人类时代下,人类应保持对隐私、数据以及被社交媒体夺走的时间的警惕,保持批判视角看待算法所蕴含的消费主义隐喻以及其裹挟的虚假、偏差信息[18]。
在资本逻辑前置的个性化推送所修辞的“个性”意蕴被消解,崇尚消费主义的个性被塑造,社会的原子化加剧。媒介伦理问题研究没有完结,自由意志的存在对抗着控制用户的计算机技术,人们的确需要智能设备帮助我们更好地完成工作、获取知识、体验生活,同时平台方应帮助修复社会人伦价值,社交媒体也不应该成为维系我们社会关系唯一手段,人们应该回归本真的社交关系。平台方在用老练的话术为算法技术伦理问题的进行修辞和遮蔽已是事实,让平台遵守媒介伦理原则,也需要公民媒介素养和数字隐私意识的普遍提升,作为社交媒体主要用户的青少年与老年群体更需被教导学会在数字化生存时代保护好自己的隐私[19],科技与社会的互动关系下法律制度也需要横向地进步。
参考文献
[1]潘宁,周阿根.自媒体时代下舆论监督的问题与对策[J].今传媒,2019,27(1):29-31.
[2]栾佳慧,周阿根.青年亚文化视角下网络古风音乐文化传播研究[J].汉字文化,2020(19):161-162.
[3]潘宁.镶嵌、创意、互动:三个层面看信息流广告的传播策略:以微信朋友圈为例[J].汉字文化,2019(15):178-180.
[4]布莱恩·克里斯汀,汤姆·格里菲思.算法之美[M].北京:中信出版集团,2015.
[5]顾若言,周阿根.新媒体时代学术期刊的困境与对策研究[J].东南传播,2018(12):74-75.
[6]陈昌凤,张梦.智能时代的媒介伦理:算法透明度的可行性及其路径分析[J].新闻与写作,2020(8):75-83.
[7]李凌.智能时代媒介伦理原则的嬗变与不变[J].新闻与写作,2019(4):5-11.
[8]王欣欣.从阿来作品看消费主义时代精神生态平衡问题:基于“山珍三部”的研究[J].汉字文化,2019(15):166-168.
[9]贾劼晗,周阿根.试论传播学视域下新媒体对城市形象构建的影响[J].戏剧之家,2019(7):215-216.
[10]顾若言,周阿根.网络时代马克思主义新闻观发展新路径:从“群众办报”到“人民传播”[J].东南传播,2018(8):27-29.
[11]Harris T.How technology Hijacks peoples minds—From a magician and Googles design ethicist[J].Medium Magazine,2016.
[12]袁晓强.基于微博热搜泛娱乐化现象的思想文化建设研究[J].汉字文化,2019(12):153-154.
[13]高云,周阿根.互动仪式链视角下淘宝直播间消费的狂欢[J].新闻知识,2020(6):54-57.
[14]林丽.科技期刊有声阅读发展过程中的问题及对策:以《南京林业大学学报(自然科学版)》为例[J].新媒体研究,2021,7(4):78-80.
[15]沈雅莉.伪造的真实:拟剧理论下的直播带货症结研究[J].艺术科技,2021,34(4):119-120.
[16]张瑜,卫欣.网络微影像:互联网时代的影像新形态[J].东南传播,2018(10):105-107.
[17]卫欣,张卫.社会化媒体视域下乡村初级群体的交往行为研究[J].南京社会科学,2017(9):50-57.
[18]潘宁.互联网冲击下传统纸媒的深层变革探究[J].东南传播,2019(6):17-19.
[19]聂宇飞.设备镜像:对数字时代中受众商品的新思考[J].东南传播,2020(12):95-97.