APP下载

智能媒体语境中的信息囚徒、算法悖论及其突围路径*

2019-09-10钟书平 刘庆振 牛媛媛 陈疆猛

教育传媒研究 2019年3期
关键词:隐私算法大数据

钟书平 刘庆振 牛媛媛 陈疆猛

【内容摘要】算法作为智能媒体时代的一种新型权力,正在解构和重构媒体传播领域的版图与秩序。算法接管了大量的媒体工作,给媒体从业者带来的是机会还是威胁?算法参与信息生产、传播和消费的决策过程,会不会像人类一样存在种种偏见和歧视?算法解决了数据挖掘过程中的很多问题,但又给用户的隐私保护带来了哪些难题?算法是否强化了“信息茧房”现象?这一系列的问题需要我们在理性地用好算法技术的同时,增加一些人文关怀。

【关键词】智能媒体;算法;大数据;隐私

算法正在我们的日常生活、工作、学习、社交等活动中发挥着越来越重要的作用,它逐渐地成为我们与信息、数据、知识、内容等比特化的世界进行互动的中介,越来越多的传播媒介在基本完成了数字化、数据化的工作之后快速迈入了算法化的新阶段。在这样的语境下,媒介进化历史也从数字媒体时代过渡到了智能媒體时代:诸如亚马逊、京东这样的电商网站不断地积累着我们每个人的消费数据,并在此基础上分析我们的偏好特点,从而使得它的推荐更加符合我们的兴趣口味;诸如华为、三星这样的手机硬件能够借助机器学习提升对我们每个人所处的不同场景和不同状态的判断;诸如头条、抖音这样的内容平台则将为我们匹配个性化新闻、资讯和娱乐的绝大部分任务让渡给了算法,而不是人工编辑;在交通、治安、教育、医疗等越来越多的领域,算法已经成为不可或缺的重要工具……当然,这样也并不意味着算法是万能的。算法不可能处理所有的事情,而且,算法在处理很多问题的时候,也常常需要一定时间周期甚至不间断地学习,并且在出现各类问题的时候接受人工纠错机制的介入。

一、算法接管工作:通往自由之路?

智能媒体时代的典型特征就是算法逐渐接管原来属于人类的大量基础性工作和程序化劳动,在数据的收集、新闻的写作、内容的排版、影像的后期、图书的推荐、资讯的分发、广告的投放等越来越多的媒体环节,甚至在电影配乐、AI换脸①、新闻播报、节目主持②等方面,也都越来越自动化、智能化和算法化,这意味着原本由人类从事的大量媒体类工作岗位在未来会被机器或算法取代,从而释放出大量的自由劳动力和自由时间。人们通常会认为,有相当大量的媒体工作需要人类的智力参与才能完成,但在今天的智能媒体视角下来看,恰恰相反,有相当大量的媒体工作压根并不需要人类智力参与,事实上,人工智能完全能够胜任。在技术加速变革和资金大力投入的前提下,更加高效、更加精准、更具现实解决能力的算法被研发出来并投入到了媒体产业的实践应用中去。其好处在于这些智能媒体工具能够客观地按照算法设定的要求去完成相应的工作,从而把人类从无聊、枯燥、乏味的劳动中解放出来,但问题在于这样做的同时也在很大程度上给被解放出来的人工造成了较大的就业压力和经济危机。对于这一点,现代西方著名经济学家约翰·梅纳德·凯恩斯(1930)在题为《我们后辈的经济问题》的文章中创造性地提出了“技术性失业”(Technological Unemployment)的概念,这意味着,在采用越来越自动化和智能化的人工智能和算法工具的产业领域中所产生的更多失业现象是由技术的应用造成的,“是由于我们发现节省劳力的新方式的速度超过了我们发现劳力新用途的速度。”③

如果某一项媒体工作无论在智力投入方面还是在情感投入方面的要求都不算太高,那么从事这份工作的人员就会非常容易被算法所取代。“在新的算法社会,计算机科学家与数学家将在文化决策方面发挥越来越重要的作用……最终可能实现几代技术乌托邦主义者梦寐以求的目标:‘每周工作20小时,50岁退休’”④(卢克·多梅尔,2016)。这一方面意味着人们将拥有更多的时间和精力去思考文化、创造娱乐和关注生活,就像奥斯卡·王尔德(1891)所说的那样,“希腊人的观点是正确的。如果没有奴隶去完成那些脏活儿、累活儿、不体面的活儿,文化与思考就无从谈起。以人为奴隶是不合适、不安全的,也是不道德的。未来世界依靠的是机器奴隶,即把机器变成我们的奴隶。”⑤如今,我们有机会把这些所谓的脏活儿、累活儿、不体面的活儿、枯燥无聊的活儿一股脑儿地交给“算法奴隶”来完成,从而腾出更多的时间去体味文化、创造文明了。然而另一方面,大多数被“算法奴隶”所取代的人类劳动者却陷入到了另一个尴尬的困境之中:他们赖以维持生存和生活的经济收入将从什么地方获得?毕竟被算法替换掉的大量劳动者是依赖一份工作而获得经济收入的,这种建立在工业时代的生产消费模式如果被算法时代的新思维和新工具摧毁,可能导致的严重后果就是那些看上去被解放为自由劳动力的人,有可能恰恰会因此被切断经济来源从而成为最不自由的人。

如果媒体不再需要广告设计师、视频剪辑师、图文编辑人员,未来这方面的劳动者就会大量减少,但问题在于目前正在从事这些工作的人被排挤出现有工作岗位之后将怎样快速完成他们的职业转型呢?表面上看这仅仅只是一部分人的就业问题,但更深层次的问题在于如果越来越多的人被“算法奴隶”或者智能工具排挤出就业市场,我们要想生存下去,就必须对我们这个社会“目前赖以存在的但是已经过时的运营模式进行改革”⑥(Levitt,1960),必须对建立在工业经济基础之上的社会文化、生活方式和管理体制进行根本性的变革。而这样的变革过程却是相当漫长的,对于那些目前已经遭受或者即将遭受新的算法技术冲击的劳动者而言,没有谁有耐力和经济能力经历漫长的等待,就像凯恩斯(1923)在《货币改革论》中所说的那句经典名言一样:“长远是对当前事务错误的指导。从长远看,我们都已经死了。”事实上,从长远看,谁都不清楚算法进化的未来究竟会是一个理想国还是一个乌托邦,或者也有可能是地狱。如果几百年后的人们利用算法获得了真正的自由,那么是否值得我们牺牲当前正在遭受算法冲击的大量劳动者的生存权利和发展权利来为后人的自由铺路?事实上,解决自由悖论的钥匙并不完全掌握在数据科学家、软件工程师和算法设计员的手中,他们无论在职业层面还是在伦理层面的出发点都是要把人类从沉重、枯燥的劳动中拯救出来。但由此造成的问题则更多地需要劳动者自身去承受,并需要算法的使用者和社会的管理者综合考量所有的可能因素来保障劳动者的生存要么免受算法的挑战,要么能够在受到冲击之后帮助他们找到更合适的工作。我们如何设计、使用和管理这些功能日益强大的算法,如何在机器奴隶和人类劳动之间寻找到某种平衡,将会直接影响到未来包括传媒产业在内的所有经济领域的本质,也将会直接决定未来的社会结构和社会形态最终会沿着什么样的路径发展下去。

二、算法参与决策:通往公正之路?

在现代社会,大数据和算法结合已经颠覆了传统的决策方式⑦(Schönberger, Cukier, 2013)。对于几乎99%以上的普通用户而言,尽管算法给了人们以客观公正的感觉,但实际上大家并不知道在算法的“黑盒子”里面究竟发生了什么,更不知道依赖算法作出的各种各样的选择和决策是否完全正确可靠。事实上,期待算法做到百分之百的公正这种想法本身就有些天真,例如,丁晓东(2017)曾选取了“Grutter案”“Gratsz案”和“Bakke案”等几个典型的美国教育平权案来分析讨论美国学校招生政策中算法的合理性,研究发现“算法并非一种完全价值中立的活动,算法总是隐含了价值判断”⑧。再如,与面部识别相关的算法对男性的识别率要高于女性、对黑人的识别率要高于白人,与就业求职相关的算法向男性推荐的工作岗位整体工资要高于向女性推荐的岗位,与信息资讯相关的算法向受教育水平低的用戶群体推送的内容在质量和格调上都存在一些问题,与商品购物相关的算法会选择向那些较少购买奢侈品的用户发假货……越来越多的案例提醒我们一个已经非常明显的事实:算法并不像我们想象中的那样客观公正。“最核心的问题仍然要归结于算法所承诺的虚无缥缈的客观性……我们过于担心人类的偏见与自相矛盾,同时又过于相信计算机的公正性。我们的错误在于我们信任算法,但事实上这些算法都是人编写出来的,人们可以把所有的偏见与观点植入其中”⑨(卢克·多梅尔,2016)。人类本身就是一种时常带有偏见性的动物,这一点是显而易见的,我们的偏见会影响我们的决策,也会影响我们对于算法的开发和应用,这一点也是毋庸置疑的。

但即便如此,《哈佛商业评论》的一篇文章仍然坚持认为如果你不想被偏见左右,那么算法依然是一个较好的选择。作者 Alex P. Miller⑩(2018)认为,我们在指责算法可能带来严重的不公平问题时,忽略了一些重要的因素,比如,算法的使用者可能不理解概率或置信区间(即使已经注明),并且在实际操作中可能也不愿去推翻算法的决定(即便这在技术上是完全可行的)。这也就是说,算法本身并没有向任何用户承诺自己完全公正、不会出错,只是人们自己觉得它是公正客观的;进一步地说,人们即使也意识到了或者接触到了算法在参与决策过程中存在的问题,但这些决策所造成的负面影响并不明显,因此也就不愿去推翻算法的决定。所以,Alex提醒我们与其把目光聚焦在这些不知是否真正公正的算法选项上而忽略了我们想要解决的真正问题是什么,不如好好考虑如何将人类和机器的优势相结合, 以便创造出更好的、偏见更少的决策工具。如果我们认真地观察和思考目前流行的对于算法偏见的大量指责,就会发现一个非常有意思的现象:尽管表面上看这些批评的矛头都指向了算法,但更本质的问题其实在于偏见。“多数对于不公正的偏见的批评并不是反算法的,他们更多针对的是偏见,他们并不是真的憎恨算法”(Rachel Thomas,2018)。在这个角度来看,解决算法偏见问题的路径将会从过去孤注一掷地聚焦于打造一种完美、公正和客观的算法转变为两种比较切实可行的策略:一是不断地优化和改进现有的算法本身,使其能够不断地向公正客观的理想状态迈进;二是在算法之外寻找预防和应对可能出现的偏见的方法,“因为在所有案例中,算法都有人的参与,尤其是在搜集数据、制定决策、实现方式、解读结果及因人而异的理解等方面,都会受到人为干预。”通过什么样的方式避免这种人为干预过程中可能产生的不公正问题,或许要比单纯关注算法本身来得更有价值。

人类存在偏见,算法同样存在偏见,而算法的偏见则更多的是人类偏见在算法世界中的另外一种写照,计算机也好,软件程序也好,复杂算法也好,都“只不过是一个使用了很多语法规则、速度很快的符号转换机,机器缺少生物大脑拥有的东西——解释语义的能力”(约翰·马尔科夫,2015)。因此,算法世界存在的偏见问题本质仍然是人类社会自身的问题,而不是算法规则的问题。算法可以读取数据并产出数据,但这并不意味着它真的理解了那些数据之于现实社会的意义,它也无法真正理解皮肤的颜色、经济的收入、职业的区分以及说话的语气等具体内容所暗含的敏感信息,它更不会在意它所输出的结果乃至结论是否会引发一场舆论争端或现实冲突。所以解铃还须系铃人,算法偏见的解决最终要寄希望于开发、使用和管理它的人。这样看来,人机结合或许是一个不错的方案,理想的状态应该是这样的:当算法在参与决策的时候,利用神经网络、人工智能、机器学习等工具将能够推理出人类的对话,并据此判断哪些问题可以直接帮助人类直接执行任务,而哪些问题的处理权和决策权应该归还给人类让他们自己解决。这样,我们就重新回到了没有算法在场的老问题:怎样确保人类自己作出的决策是不带偏见的?而事实上,人类并没有发明出一套完美的游戏机制和社会规则来保证这一点,这也就难怪很多人在谈及算法偏见的时候会抱有“比人类强点就行了”的态度。在任何一个现代社会中,人们都不希望看到偏见的存在;但同样在任何一个现代社会中,偏见却随处可见。或许,从更长远的时间来看,我们依然要寄希望于算法来减少偏见、促进公正。毕竟,只要我们确定的规则是合理的、公正的、无懈可击的,那么算法就会严格的按照程序遵循并执行它,“算法的尊重性,并不仅体现对那些强势群体算法使用者的尊重,而更需要的是对弱势群体算法使用者的包容和理解,即算法不因身份、地位、财富、性别等不同有任何区别。”在这一点上,人却未必能做到。

三、算法窥见隐私:通往透明之路?

英国哲学家杰里米·边沁(1875)设计了这样一种“圆形监狱”:在其中,每一个囚徒的所有行为动作对于监视者而言都是可见的,但监视者的任何心理、表情和动作对于囚徒们而言则是无从得知的,他们甚至在根本上不知道监视者的存在。法国哲学家米歇尔·福柯(1977)在其著名的《规训与惩罚》一书中使用了“全景监狱”的概念来表达了与边沁类似的意思,但在这里囚徒们在一定程度上是意识到监视者的存在的。无论何种说法,囚徒们所处的环境对于监视者而言都是透明的,他们能够清晰地掌握囚徒们的一举一动。在当前的信息社会,每位用户在数字终端上的浏览痕迹、跳转路径、消费记录以及其他各种动作都被以不同的形式存储和保存了下来,构成了所谓的大数据的一部分。这其中绝大部分数据是无意义无价值的,它们根本不会被谁注意到就淹没在了浩浩荡荡的数据洪流之中;但是越来越多的机构,无论是出于商业目的还是政治目的,正在开发各种各样的算法激活大数据中所蕴含的巨大价值。借助算法,我们在大数据的海洋中淘洗到了美丽的贝壳,甚至还发现了闪闪发光的珍珠,那就是数据中所蕴含的关于用户个人的基本情况、兴趣偏好、价值观念、消费需求乃至政治倾向等有助于对用户行为进行预测、引导和施加影响的重要信息。例如,2018年3月引起全球互联网用户极大关注的“脸书数据门”事件,事件的主角“剑桥分析”公司就涉嫌窃取超过5000万脸书用户的个人数据,并在此基础上利用数据挖掘工具和算法推荐系统来操纵美国大选及英国脱欧的投票。

尽管我们不能认定是算法操纵甚至决定了某些重大的公民决策行为,也无法给出算法对公民的政治理念和投票行为究竟产生了多大程度的影响,但有一点是明确的:算法能够从我们遗留在网络上的数字踪迹中挖掘出更丰富的具体到每一位用户的各类信息以服务于其商业目的或者其他目的,这其中当然包括大量的用户隐私。在这种数据可以被实时收集、存储和挖掘的语境下,波斯特从福柯的“全景监狱”出发,指出了“今天的传播环路以及它们产生的数据库,构成了一座超级全景监狱,一套没有围墙、窗子、塔楼和狱卒的监督系统”(波斯特,2000)。我们每个人则成为这个超级全景监狱中的“囚徒”,尽管其中的绝大多数人并没有时时刻刻自发地感知到这种“监视”,当然,监视也不是时时刻刻都存在。但这种由数据、算法和传播权力编织起来的监视与被监视、传播与被传播、操纵与被操纵的虚拟关系确实产生着相应的影响。客观而论,直到目前为止,每年都有层出不穷的数据泄露事件和隐私侵权事件,但用户仍然并不知道自己的隐私会如何被侵犯,被侵犯到何种程度,因为数据和隐私这样的概念对用户而言太抽象了,除非有具体的且恶劣的行为严重伤害到了他们,否则他们就会觉得无关痛痒,更何况,“他们与那些掌握并利用甚至可能出卖他们的隐私数据的公司之间,天然是不平等的。在缺乏对自己数据的知情能力的情况下,隐私保护也就无从谈起”(彭兰,2018)。

但或许我们也不能因此而彻底悲观甚至陷入绝望,情况可能没有我们想象的那么糟糕,甚至还有可能是很多悲观主义的研究者杞人忧天般地多虑了。比如《福布斯》杂志曾经就专门针对隐私这件事情撰文指出,“小孩子就是不在乎,或者不理解老一代人所指的‘隐私’一词的意思……70%的千禧代人说没有人有权接近他们的数据或线上行为;但51%的说,如果能被告知,他们愿意共享信息”(安德鲁,2016)。Liana Brüseke(2016)就千禧一代和婴儿潮一代对在线购物行为中的隐私认知情况进行的对比研究中也在一定程度上支持了上述说法,不同世代的人群对待数字世界中的隐私问题持有不同的态度和观点。当然,年轻人对个人数据和隐私持有更加开放和乐观的态度是完全可以理解的,他们是信息时代的互联网原住民,他们更容易认可和支持数据共享行为,他们也还没有受到过太多因为隐私泄露而产生的各种困扰,而且,任何一个国家、任何一个时代的年轻群体总是相对于年老群体对新出现的事物和问题保持激进态度。但这也并不一定就意味着年轻人一点儿都不关心他们的数据安全和隐私风险,例如Brien(2011)等人的研究就发现其实聪明的千禧一代非常清楚社交网站中的低隐私设置所存在的风险,并主动采取了一些保护措施以防自己信息的泄露。更何况,随着年龄的逐渐增长,很多年轻人不怎么关注隐私问题的状况还极有可能发生根本性的变化,谁会真的希望在看似匿名、自主、安全的网络环境背后有一双甚至无数双眼睛盯着自己看呢?互联网领域一直引以为豪的共享思维和共享技术塑造了年青一代的思想和行为,使得他们更愿意分享从经验到知识、从数字产品到实体产品等所有非独占性的东西,但这不是说他们愿意分享所有的一切,或许他们缩小了自己所认为的隐私应该涉及到的范围,但他们肯定不会放弃隐私权。“数字化技术能使隐私侵犯更加绝对化,结果它威胁,甚至破坏了我们大家晚上带回家的‘真正的自我’。在持续不断的监控下,我们的行为不像是我们自己的,我们有时甚至不是自己,我们会尽力掩饰自己,希望避免超级牢固的刺网的监视”(安德鲁,2016)。现在,这种监视、诱导以及操控行为正在把并非真正我们需要的信息和商品推送给我们,正在从更深层次改变我们对世界的认知、态度乃至行为,因为它看见了我们,于是它能预测、影响甚至改变我们的想法和做法。而我们中的大多数,却看不见、听不到也感知不着它的存在。

四、算法改造视野:通往多元之路?

“算法对人是有目的倾向性的。例如,在决策支持系统中的算法,即通过某些预定的标准对一组备选动作进行排序来帮助决策者做出更好的决策。虽然算法在设计的阶段不会对人产生影响,但是在算法设计刚开始时就已经负载价值,只不过价值要在算法的应用阶段实现”(郭林生,2018)。这种倾向性表现在今天的新闻传播领域就是根据用户的个人兴趣偏好向他们进行个性化的商品、广告、资讯和娱乐推荐。随着越来越多的互联网企业将这种个性化算法推荐的方式应用到为用户提供信息服务的不同场景之中,用户也越来越明显地感觉到算法的无处不在,他们在算法提供的各种选项之中汲取信息、数据、内容、知识乃至智慧,但随之而来的除了表面的繁华热闹,还有很多更深层次的困扰和担忧,最典型的就是对“信息茧房”“算法垄断”的讨论。“这种个人日报式的信息选择行为会导致‘信息茧房’的形成。长期处于过度的自主选择中,失去了解不同事物的能力和接触机会,不知不觉间为自己制造了一个‘信息茧房’”(喻国明,2016)。事实上,算法推荐所造成的“信息茧房”问题的确是客观存在而且是不容忽视的,例如,今日头条曾经在一段时间以非常高的频率向用户推荐某一话题、某一人物、某一时间或某一类型相关的资讯,这在很大程度上造成了用户的不良体验和强烈反感。在一定程度上,这是一种用户能够感知到的“信息茧房”正在形成的过程,这个过程引起了用户的不适、抗拒乃至冲突,因为这种频率和密度带来了某种压抑感甚至窒息感。事实上,这只不过是推荐算法在其初级阶段的拙劣表现,更优秀的算法已经能够做到根据对用户实时数据的分析向他推荐更符合他所在场景的个性化信息而不致引起用户反感,但这并无法改变“信息茧房”的本质,而是进一步强化了“我所看到的都是我想看到的”这一现象,而那些不想看到的都已经在达到用户之前就被算法屏蔽在所有可选项之外了,用户需要做的只是从众多想要看的内容中选择此时最想看的那个选项而已。

长此以往,“这种‘信息茧房’导致的信息偏食往往使人局限在个体以及相似群体的行为活动中”(王秋旭,2015),还会“使个体独立选择与思考的空间不断缩小,个体在算法推荐的渗透下逐渐失去自我的决断权,这种信息偏向使受众的视野逐渐变得狭窄,逐渐成为信息时代的井底之蛙”(陈昌凤、张心蔚,2017)。当一个人长期沉浸在算法为自己打造的媒介环境中时,他对那些与自己价值观和兴趣点不一致的多样化的信息就会接触得越来越少,这有可能导致他不情愿或者根本没有办法主动走出“信息舒适区”,从而进一步禁锢了自己的视野,束缚了自身的成长。事实上,与“信息茧房”类似的问题由来已久,早在19世纪,法国思想家阿历克西·德·托克维尔(1840)就在其风靡至今的社会学巨著《论美国的民主》中提到过类似的观点,他的发现是民主社会更易于促进个人主义文化的滋生、形成和发展。哈佛大学法学院教授桑斯坦(2003)在《网络共和国》一书中发展了这一观点,并直接指出了网络时代的信息爆炸看似给用户带来了更多的资讯和更民主的选择,但实际上它蕴含着对多样化生态和民主化选择的巨大破坏力量,从而失去了接触和了解不同事物的能力和动力。但也有另外的观点认为,“信息茧房”是一种必然现象,过分担心它可能对信息生态的多样性造成巨大破坏,这件事是没有太大必要的,因为一直以来用户都是处在“信息茧房”之中的,而不是直到推荐算法出现之后才这样的。在传统媒体背景下,用户是通过自主浏览报纸、电视和广播的方式来选择自己想获取的信息;在PC互联网环境下,用户是借助搜索引擎这样的工具来筛选和过滤他所查找的信息和商品;在移动互联网场景下,用户则利用人工智能、深度学习、数据挖掘等技术塑造的推荐系統来获取相应的内容产品。尽管表面上看,随着媒介的不断进化,用户的主观能动性和选择多样性变得越来越低,但直到目前并没有客观可靠的数据来支撑这样的论断。

無论是传统大众媒体时代,还是PC互联网、移动互联网时代,用户所获取到的信息,都在很大程度上受到了“算法”的左右,只不过不同的媒介技术语境下的“算法”各不相同罢了。大众传播时代的编辑分发算法,更多地是基于编辑作为“把关人”对什么样的信息应该呈现在受众面前进行一种经验主义的主观“计算”或判断,从而把他们认为受众适合看到的信息通过报纸、电视等方式“推荐”给了受众;PC互联网则是利用搜索引擎的排序算法把它认为最符合用户输入的那个关键词的信息以优先劣后的方式“推荐”给用户;移动应用场景下的各类App因为能够采集和挖掘更多样化的用户数据,因此能够结合大数据技术、人工智能技术和机器学习技术不断优化其推荐系统,以向用户匹配更符合具体场景下的信息给他们。所以,媒体编辑分发、搜索引擎分发和推荐引擎分发三种信息分发方式虽然其“算法”有所不同,但它们的本质都是相同的——为用户过滤掉那些与他们无关的或者他们不感兴趣的信息。在这个意义上,凡是媒体都会形成“信息茧房”。更进一步地,对于用户而言,媒体编辑个人的判断标准是一种“信息茧房”,搜索引擎的排序算法是一种“信息茧房”,推荐系统的推荐规则也是一种“信息茧房”,而更难以冲破的“信息茧房”则是用户个人的世界观、价值观、人生观,是“三观”决定了用户会在媒体编辑分发、搜索引擎分发和推荐系统分发之后的所有信息选项中选择阅读或消费什么样的信息产品。在一定意义上,不同的媒体进化阶段和信息分发模式之间的确存在较大的思维方式和操作方法的差异,但在“信息茧房”这个视角下,并不意味着编辑分发时代用户获取信息和消费信息的多样性就高于移动互联网时代,而由于移动互联网赋予了信息快速扩散和网络化传播的可能性,它反而使得海量用户能够有机会在较短的时间内获取到一些在大众媒体时代被“把关人”过滤掉的重要信息,这在一定程度上也增加了信息来源、舆论观点和价值选择的多样性。目前来看,冲破“信息茧房”的关键有两点:一是从当前的各类算法着手,根据对用户数据的挖掘和洞察,在“用户真正需要什么信息”和“用户此时想要什么信息”之间进行综合平衡,提升算法推荐选项的多样化,“媒体算法追求信息的精准分享,这样的设计理念并没错,前提是信息分享的方式是构建个体化的信息分享模式还是构建多样化的信息分享模式”(刘海明,2019)。二是激发用户在信息选择方面的主观能动性,主动走出“信息舒适区”,明确自己真正需要什么样的信息,利用不同方式来获取不同的信息,而不是单纯地依赖某一类媒体、某一款应用或者某一种算法。

五、智能媒体中的算法权力与人文关怀

媒体的智能化和算法化是一种巨大的力量,它给传媒产业和传播研究带来了源源不断的红利,但它也给当前处在转型中的媒体传播领域和中国当下的文化、经济、社会乃至政治造成了诸多的难题。无论是机遇还是挑战,都强烈地冲击着现有的信息生产模式、内容消费方式、生活工作状态、传播伦理观念和社会管理制度。现实的情况是,面对已经来临的智能媒体社会,我们唯一的选择只能是接受它、拥抱它、完善它和成就它。显然,媒介的演化过程是不可逆的,几乎很少有人会从内心真正愿意重新回到只有传统四类大众传播媒介的20世纪。但尽管如此,我们在享受智能媒体带来的所有红利的时候也必须学会质疑,对它有可能给整个行业乃至整体用户带来的困扰、威胁乃至伤害进行全面的思考和妥善的处理。今天,“在一个媒体和代码无处不在的社会,权力越来越存在于算法之中”(Scott,2007)。怎么样对待这些算法以及算法权力,将直接决定着我们对于当前媒体领域所出现的各类问题的价值取向和处理方式。“如果没有算法,我们的生活将会大不一样,很有可能远不如现在,但这并不意味着我们无需考虑这些问题。在某些答案似乎唾手可得时,我们更应该小心谨慎”(吴军,2016)。因此,除了对技术理性怀有必要的敬畏之心之外,更重要的一点就是在运用这些权力的时候要保持强烈的人文关怀——技术理性是可以不存在价值判断的,但是人文关怀必须要在处理技术带来的社会问题之时有着明确的价值取向,那就是——科技向善,算法向善,权力向善。

注释:

①2019年2月,网络上流传着有位B站UP主“换脸哥”,用AI算法技术将1994版《射雕英雄传》主演朱茵的面貌替换成了演员杨幂的面貌,无论是风格还是表情都没有违和感。https://tech.sina.com.cn/csj/2019-02-26/doc-ihrfqzka9312468.shtml.

②在2018年举办的乌镇第五届世界互联网大会上,新华社发布了国内首位“人工智能机器人”,能够利用英语和汉语进行流利的语音播报。http://www.sohu.com/a/274442194_578982.

③John Maynard Keynes(1930). Economic Possibilities for our Grandchildren. Scanned from John MaynardKeynes, Essays in Persuasion, New York: W. W. Norton &Co., 1963, pp.358-373.

④⑨〔美〕卢克·多梅尔:《算法时代:新经济的新引擎》,胡小锐、钟毅译,中信出版社2016年版,第202页、第138页。

⑤Oscar Wilde(1891). The Soul of Man under Socialism. libcom. September 8, 2005. http://libcom.org/library/soul-of-man-under-socialism-oscar-wilde.

⑥Theodore Levitt(1960). Marketing Myopia, Harvard Business Review.

⑦Viktor Mayer-Schönberger, Kenneth Cukier. Big Data:A Revolution That Will Transform How We Live,Work and Think. New York: Mifflin Harcourt, 2013,pp.34-70.

⑧丁晓东:《算法与歧视:从美国教育平权案看算法伦理与法律解释》,《中外法学》2017年第6期。

⑩Alex P. Miller(2018). Want Less-Biased Decisions? Use Algorithms. Harvard Business Review.July 26, 2018. https://hbr.org/2018/07/want-less-biased-decisions-use-algorithms.

Rachel Thomas.What HBR Gets Wrong About Algorithms and Bias. Aug07, 2018. https://www.fast.ai/2018/08/07/hbr-bias-algorithms/.

《算法做出的决策能避免偏见吗? 》,《数据分析与知识发现》2018年第9期。

〔美〕约翰·马尔科夫:《与机器人共舞:人工智能时代的大未来》,郭雪译,浙江人民出版社2015年版,第179页。

郭林生:《论算法伦理》,《华中科技大学学报(社会科学版)》2018年第2期。

〔美〕马克·波斯特:《信息方式》,范静哗译,商务印书馆2000年版,第127 页。

彭兰:《假象、算法囚徒与权利让渡:数据与算法时代的新风险》,《西北师大学报(社会科学版)》2018年第9期。

〔美〕安德鲁·爱德华:《数字法则:机器人、大数据和算法如何重塑未来》,鲜于静、宋长来译,机械工业出版社2016年版,第179页。

Brüseke, L. (2016). The influence of privacy perceptions on online shopping behavior : a comparison between millennials and baby boomers. https://essay.utwente.nl/70179/.

S-O"Brien, L. , Read, P. , Woolcott, J. , & Shah, C. . (2011). Understanding privacy behaviors of millennials within social networking sites. Proceedings of the American Society for Information Science and Technology, 48(1), 1-10.

喻国明:《信息茧房禁锢了我们的双眼》,《领导科学》2016年第12期(下)。

王秋旭:《信息茧房效应下微博群体极化现象分析》,《新闻研究导刊》2015年第7期。

陈昌凤、张心蔚:《信息个人化、信息偏向与技术性纠偏——新技术时代我们如何获取信息》,《新闻与写作》2017年第8期。

刘海明:《媒体算法的价值纠缠与伦理误区》,《湖南师范大学社会科学学报》2019年第1期。

Scott Lash(2007). Power after Hegemony:Cultural Studies in Mutation? Theory, Culture & Society, 24(3): pp.55-78.

吴军:《算法時代:新经济的新引擎》,中信出版社2016年版,第225页。

猜你喜欢

隐私算法大数据
Travellng thg World Full—time for Rree
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点
数据安全事件频发 “隐私”何处安放?
新形势下个人信息隐私保护研究
室内窗帘装饰性探析
浅议隐私权的边界
基于大数据背景下的智慧城市建设研究