融媒视域下AI传媒技术与社会伦理关系解构
2021-12-26宋红
宋 红
随着AI(Artificial Intelligence的缩写,人工智能)传媒技术迅速发展并在传媒领域得到越来越广泛的应用,传统媒体与新媒体在AI传媒技术的加持下逐渐从原始冲撞中致力形成新的信息生态。媒体融合以及AI技术的运用、创新,使得传播技术在当代新闻媒体中的价值权重大大增加。与此相应,AI传媒技术和伦理之间的关系也需要进一步解读和建构,以葆有传媒特有的新闻专业精神及其话语合法性和文化权威性,使得新闻传播事业得以良性持续发展。
一、AI传媒技术在融媒领域的现状分析
AI在传媒业的应用几乎可以渗透到生产、发布、传播直至反馈互动等传媒全过程,传媒界不仅呈现了沉浸式新闻、智能场景新闻、个性化新闻、传感器新闻、临场化新闻、分布式新闻等新闻新样式,还有算法推送、虚拟主播、机器人创作、脑机对接、无人机定向播放等,更有让受众惊见“换头术”技术之上的政要娱乐新闻、明星出位表演等等,使得传媒空间里虹霓斑斓又伴着天雷滚滚,足以引起传媒学界和业界的震动和思虑。
客观来说,当下AI在传媒领域的介入应用程度,其实仅相当于约20年前三维动画技术之于影视界的影响。《互联网周刊》发布的“2019人工智能案例TOP100”榜单,覆盖了国内外主流人工智能及科技企业的前沿应用案例,其中应用于传媒界的仅有一项案例:南京广播电视集团的数字主播。〔1〕可见,人工智能之于传媒界的热度和效度仍处于初始阶段。以虚拟主播为例,其外形已经吸收最新3D拟人造像技术,几乎达到了以假乱真的程度,不过还是没有超越数字拟人技术的“恐怖谷效应”。〔2〕对于新闻播报要求的纯机器合成主播来说,动画电影的常用技术并不能照搬给荧屏人物,因此,“恐怖谷效应”仍然是横于人机之间AI传播技术的瓶颈。
近来还有一种急功近利的方式,即用“真人换头”技术来消弭人机之间的违和感。这种传播作品对娱乐价值的偏执追求使得该技术更为“高超”地游走于“创新”与“违法”两面,而这也是AI创新应用中一个不容忽视的倾向。类似的还有机器人原创、无人机定向播放、算法推送等,技术效果达到了远远超出人们意料的地步。而人们最为担心的AI自我学习更新型的社交机器人反而自我中止。最著名的微软Tay聊天机器人仅一天时间就“学坏”了,成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。〔3〕究其原因,主要是这类AI产品在记忆学习中的无分辨性、无立场性。
二、AI传媒技术与伦理关系普遍性焦虑的本质解读
AI传播技术能够给人类生产力带来的增长和改变显而易见,但人们却首先对它充满担忧。上至世界顶级科学家,下至生产车间工人,都在为人工智能快速发展有可能带来的智能失控而焦虑,这在任何一次科学技术革命史上都是很少见的现象。比如,网友对微软公司的聊天机器人评论道:“Tay被人类这么迅速地‘教坏’,我一点儿也不担心人工智能的未来。”
之所以AI传播技术会引发大多数人的焦虑,其本质缘于这项技术直达人类大脑科学核心和人类精神特质,实质是人类对技术创造者的不信任以及对人类自身弱点的洞悉。近现代以来的工业革命,从蒸汽机到发电站,再到核能与“可编程逻辑控制器(PLC)”,直至互联网,所带来的问题无非生产力紧缺、能源紧缺、族群或国家之间的贫富差距加大等;发明创造的钢铁之躯或者新材料产品无不是人类的工具,即使其中具有强化、取代甚至超越人类肢体、脏器的功能产品,其从属于人类的性质是一致的,这是前三次技术革命的进步性基本毋庸置疑的原因。然而,人工智能技术革命作为第四次技术革命,却是空前地对人类大脑进行终极挑战的科技革新,称得上人类妄图成为上帝所要打通的最后一层天花板。这次升级基本都是由信息录入、处理和输出等技术来实现的,而这些正是人脑的专擅领域,因此,这是一场意在对人类根本生物特性的模仿、超越或异化的革命,因而被认为是“最后一次技术革命”。于是,“忧从中来,不可断绝。”(曹操《短歌行》)
这种焦虑折射出人类潜意识比自己认为的更加清楚自身弱点。霍金就曾警告:人工智能的发展是好是坏仍不确定,但人类应该竭尽所能,确保其未来发展对人类和环境有利。很显然,霍金对AI的忧虑依据就是人类并不能保证自己竭尽所能从事的事业是确保对人类和环境有利的。事实上,历史已经无数次验证了他的这种担心绝非空穴来风。“天之道,损有余而补不足;人道则不然。”
(《道德经·七十七章》)事实的确如此。
人类具有自身难以克服的无限感性欲望和有限理性思维。所以,AI传播技术与伦理关系普遍性焦虑其实是人们由于信息、权利不对等所带来的对人类自身的信任危机。故而担负人工智能的顶层设计和终极造就的几千名技术人员,能否成为地球75亿多人放心交付的人类命运操纵者,这似乎只是在目前起始阶段还可以对此说三道四的话题。如果AI没有在人类有能力对它说不的时候被终止——这已经是大概率事件,那么将来无论“人类会无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭”,〔4〕人类可能都不再有说不的机会。就像VR技术实现之后紧接着就是AR技术的取代,沉浸式虚拟现实的“去见鬼”这么快就成为裸眼可视的增强虚拟现实的“活见鬼”,人们对其不再有什么意外感觉。从这个意义上说,人类应该担忧的恐怕还要加上与“脑机对接”相类同的“智能人工”——“大脑植入芯片”,即“人机器”技术,以及急不可耐地意欲制造人类新品种的基因编辑技术等等。人类自身才是恐惧的源头。
三、AI传媒技术与伦理关系的对撞与对冲
AI技术发展的趋势终是不可抵挡的。从以往的技术革命看,人类最终完成了当时认为不可能完成的任务从而一次次战胜了技术飞跃给人类伦理带来的冲击和挑战。前三次技术革命(也可看作前四次),最终都极大地推动了人类社会经济、政治、文化领域的变革,而且相应地改变了或正在改变人类的行为方式和思维方式,这些改变不同程度地冲击继而重塑了伦理秩序,而伦理秩序也对新技术的发展有着不容忽视的影响,从而使人们不得不相应地调整技术发展的方向、速度及适用范围。因此,新技术对原有伦理的冲击既是二者的对撞,也可看作建立在文明发展普适性和人类整体安全性上的“对冲”。
有了AI传播技术的加持,媒体超常规生产能力的爆表和泛化就会带来作品理性和社会责任的相对缺失,这必然激起新闻传媒对统一理念规则的呼唤。与此同时,我们也可以看到方兴未艾的AI传播技术及传播方式已成为传媒界的新力量,为业界注入了进一步发展繁荣的新鲜血液和新的思路,它对媒体伦理造成冲击也并不意味着某一方的全面失败或脱缰,而会形成一定意义上的对冲。因此,新技术驱动理念下的媒体语境需要技术伦理与新闻伦理的深度解读及双边关系重构,从而彰显媒体的话语合法性和文化权威性。以往每次在新技术的冲击下,人们都不得不重新审视当时的伦理生态。伦理并不是亘古存在、一成不变的,伦理的道德性是由上层建筑赋予的,这种道德关系本身则是由人类所处文明层阶的生产力等客观因素决定的。美国《韦氏大词典》对于伦理学的定义是:一门探讨什么是好什么是坏,以及讨论道德责任义务的学科。而好和坏是相对于该伦理所处的文明阶段而言的,在原始文明中的“好”放到资本主义文明中可能就是“坏”,封建文明中的“坏”在资本主义文明等其他文明阶段中也可能是“好”,而不同文明阶段中的人的道德责任义务也有着截然不同的标准和要求。因此,伦理必是与所处文明层阶相一致的道德秩序体系。而在技术哲学看来,技术本身只有优劣,无关好坏,技术的好坏判断完全是由人的视角和行为造成的。这种来自伦理的评判对技术文明进步适应性有着双向影响,落后、过时的伦理观念制约着科学的探索和进步,同时伦理中所反映的人类良知又对技术的异端化、妖魔化进行遏制。我们必须认识到,任何时代的技术和伦理都不可能是完美的,只是暂时的相对于系统平衡是适宜的,虽然这种适宜的程度是不同的甚至是难以比较的,但相同的是二者都需要改善而不是让它们静止。然而,对于新生技术和原有伦理,任何轻妄的人为操作都隐含相对于“无为”更大的风险,特别是蕴含能量与威力巨大的核技术、基因技术、AI新技术等,其风险就来自这些技术能轻而易举地超常规发展进而导致其威力爆表后的失控失序。从科技革命带来的机械化、电气化、自动化到网络信息化,每一次革新引发的生产力大爆发式提高都呈几何级数骤增。现在人类又来到了“人工智能化”的阶梯前,向上攀缘是不可阻止的行动,但人类必须审慎地思考辨认,及时地分清楚上帝与魔鬼的IP。“这世界究竟是善良的还是邪恶的?”这个爱因斯坦认为最重要的问题,答案或许就是新技术与伦理对冲后的结果相对于文明进步而言是否获利,社会中的个体、集团利益经过一系列的打破与重组后能否导致合理性、进步性的可持续的良性发展。
更进一步分析,AI传播技术固然会带来对伦理的冲击,但是这并不是技术本身的过错,而是使用者的问题,是技术黑箱化之下技术使用者在侥幸、自负心理下的职业失德、行为失范,例如舆论热议的“换头术”侵犯名人肖像权、“智能头环”监控小学生、“AI记者”编写假新闻、“算法”识别性取向等AI软件涉嫌违法的案例。与此同时,我们也可以看到新技术可以在技术应用正义下对现行伦理缺陷起到倒逼改善的作用。就像淘宝等电商崛起促使工商管理改革、电子支付推动银行服务升级一样,甚至B站的入网问卷还起到了对网民、宅男等的教育培训作用,使得B站用户的网络文明层级陡然提高……而另一方面,伦理本身也并非无懈可击,未必处处比AI更高一筹。现行伦理中其实就存在一些类似AI程序思维的机械教条主义的模板,甚至还被一些人奉为圭臬。辛普森案大陪审团或许可以面对斯诺登的爆料无动于衷,却难以面对辛普森本人多年后对法律的嘲笑。事实和程序哪个重要?形式主义和实用主义哪个为主?AI的思维方式是典型的程序式思维,形而上学的法律程序至上思维又何尝不是?辛普森案的法官为这种思维可能导致的极端结果做了一个绝妙的演示。而人类正常的科学思维是辩证思维。此案例审判中程序思维与辩证思维的区别在于前者将程序和事实等同并偏执于程序一端,结果一损俱损;后者可以兼顾程序和事实两端进而做到“尘归尘、土归土”,也就是证据能证明事实就有效、取证程序不合法另案审理警察。这样做的好处是可以防止警察为了包庇嫌疑人故意不按程序取证从而令证据失效。如此,一方面可明确回应辛普森律师团对警察栽赃的怀疑,另一方面对大众非常关心的人权不受警力滥用侵扰的问题也可在另案审理警察取证程序违法后得到妥善解决。如果说AI传播技术必须重视伦理性,那么如何解决程序思维与辩证思维的差异,如何弥补人工智能与人脑思维在效果上的差距,才是真正的焦点。
四、AI传媒技术与伦理良性关系建立的信心与策略
与AI传媒技术对人类影响的悲观论点相反,有相当多的人认为人工智能反而能制造更多的就业机会,带来对自己的诸多利好。有数据显示,在中国持这一观点的人数占到七成以上。电通安吉斯公司(Dentsu Aegis Network)调查的10个国家的数字社会指标的报告显示,多达3/4的中国人对于数字技术及人工智能的发展对生活、工作的影响保持乐观态度,远远高于全球1/4的平均水平。报告还强调,有68%的中国人认为他们接受的正规教育为他们提供了所需的技术技能和知识。〔5〕
如果把人工智能看作迅速升级的工业自动化的加强版,只是增加了先进的文字、图像、语音识别、互转和播放技术,使自动化产品越来越像“人”而已,那么人类对自动化的适应经历的确足以使之持乐观态度。在2019年世界人工智能大会上,有人认为“很多人担心人工智能,他们需要对自己有更多的自信”。这种观点有一定代表性。无论是以往的冷兵器时代还是核战争威胁时期,人类使用过牛、熊甚至是狮、虎等战斗力数倍于自身的猛兽,也发明了足够毁灭地球N次的核弹头,但人类都没有被强大的“肌肉战队”或者“核战队”反噬,而是通晓、利用、控制了它们。因此,只是在某些方面比人类“强大”并不足畏,真正可畏的是来自人工智能的“新挑战”,是它能自动升级、进化出敌对人类的“独立意志”。
解铃还须系铃人。AI传媒技术与伦理的良性关系来自两个方面的保障:一是来自AI顶层设计者的共识、自律以及有效监督和危机干预;二是对AI应用技术执行者的强化教育、约束和控制。一言以蔽之就是确保AI人才的诚信、安全、可控及完善其监督奖惩体系建设。阿莫西夫的“机器人学三大法则”率先成为AI界的金科玉律,而之后又加上的一条“第零定律”却引起了很大争议:“机器人必须保护人类的整体利益不受伤害。”〔6〕人类自己都知之不详的“人类的整体利益”,用0和1来思考的机器人又如何明晓?作为机器人基本法则,却要求机器人为了一个抽象价值目标去执行一个自主决定的行为,是不适宜的。换言之,我们不能把机器人当作“大侠”“救世主”,不要强“人”所难。我们完全可以使机器人的功能更加单纯,那就是执行由开发者给它设定的内置程序赋予的职能,除非该职能违反高阶原则;同时,不擅自执行基于自主道德情感判断方面的职能。这看起来有些复杂,其实很简单,与其对机器人有诸多要求,不如直接要求其设计师。〔7〕那么,AI设计师公约或许可以如此约定:
第一公约:机器人的程序设定必须遵循不得伤害人类个体的原则;
第二公约:机器人程序设定必须服从人的指令,当该指令与第一公约冲突时例外;
第三公约:高仿机器人必须在规定位置显著标识“AI”;
第四公约:不得给机器人设定开发新代码的功能,除非新代码符合设计师公约;
第五公约:实施AI传媒技术措施保护的同时必须公示最新技术黑箱,以保证公众知情权,防止或减少信息不对称下的高科技犯罪对人类的伤害。
五、人工智能语境下的传媒责任
先进的AI传媒技术是原有生产秩序的一个颠覆性因素,但它也可以在全球范围内创造公平的竞争环境,使得在任何地方开展业务都成为可能。这在传媒界就表现为新媒体异军突起,融媒成为主流,媒介泛化、用户为王,并倒逼媒体新闻专业主义的整肃、重构。
AI传媒技术导致了“公民记者”的大量涌现,并表现出技术化、草根化、个性化的时代特征,各种媒介里的“公民记者”活力四射、野路子频出,相当程度上颠覆了新闻专业主义的传统伦理秩序。然而事实也不容否认,传统媒体在经年累月的实践中也存有不少矛盾激化和利益固化的隐疾,甚至有些问题还在进一步恶化并难以从业内得到解决。例如,一些职业记者报喜不报忧,面对社会问题不作为;回避矛盾冲突,大唱“太平歌词”;“佛系”报道频出,不仅无立场而且无是非;报道形式及手段单调僵化,有“八股”倾向;面对利益集团铁肩难担,在打击报复威胁下难以集聚手段和力量坚决履行新闻监督职责;等等。种种令业界伤脑筋的棘手问题,却似乎可以在AI技术中迎刃而解,一些痼疾沉疴正在或将要被新媒体、新技术消解克服。因此,以人工智能为技术标志的融媒时代使得新闻专业主义更加有能力也更加有必要兴利除弊、生发新意。
然而,媒介泛化的万物皆媒、自我进化等情形,又的确带来了新的问题。传媒实际从业者需要解决自身职业认知的不确定性和存在感焦虑。在融媒体中,传播权不仅已经完全被大众所分享,众多传播主体在没有职业意识或是职业态度参差不齐的情况下,“都有可能不受政治、意识形态、技术、文字和逻辑能力、经济能力的严格限制,真正实现个人的表达自由和言论自由”。〔8〕任何一个人,甚至是机器人,都有可能在传播领域激起水花,甚至掀起惊涛巨浪,诸如伪原创、标题党、算法控制、谣言传播等现象的频现。这使得传媒的真实性、准确性、专业性、权威性等饱受质疑。传媒有责任保障、促进新技术的健康发展以解放生产力、提高生产效率,同时也必须承担报道新闻事实、尊重客观价值、维护公众知情权、倡导正义良知的正确舆论导向把关人职责。传媒有责任和义务教化社会大众,同时更有责任和义务教化本行业从业者具有正确的职业理念和工作模式,并为之进行规范化建设,积极推进职业培训教育等。正所谓“不教而杀谓之虐,不戒视成谓之暴”(孔子《论语·尧曰》),必要的教育和警诫不是对自由的限制而是对自由的保护。对此,专业学会等第三方机构的介入、治理也是十分必要和有力的作为。譬如,2003年成立的中国互联网新闻信息服务工作委员会,聚集了新华网、人民网等30多家媒体机构,出台了《互联网新闻信息服务自律公约》,可视为政府、行业组织对网络媒体“把关人”进行约束和引导的一种体现。
与此同时,运用先进的AI传媒技术对媒介环境自我治理也是当代传媒把关人的有效手段。一些存有主观恶意的个性化传播毕竟只是“公民记者”中的一小部分,感召更多用户的主动参与意识,激发大众发挥多点信息判断与监督作用,是在AI传媒技术支持下完全可以实现的。如《纽约时报》就利用人工智能来管理评论区,通过AI技术识别,筛除垃圾言论和恶意评论,打造出一个优质的智能化内容管理平台。这样,用高新技术和规则设计来强化把关人的角色意识和行为,引导、促使基于AI传媒技术支撑的所有“网民记者”都可以在新闻专业主义的感召和引导下成为涤清媒介环境、优化传播质量的主力军。由此,媒介对新技术力量不应是害怕、桎梏,而应是规范、引导,以实现AI新技术与伦理的真正和解、优化。
六、结语
新技术驱动理念下的媒体语境需要技术伦理与新闻伦理的深度解读及双边关系重构。任何单边顺应,无非是势力压制与风险倾倒;只有建立在权重参数下的双边操作,才可致目标利益最大化。而这个权重参照的原则,非常有利于文明发展和生产力解放。人类必须看到AI传媒技术确实提高了生产效率和传媒格局,在带来伦理问题的同时也存在弥补现实局限、优化生产关系的潜力。AI传媒技术革命已经开启,人类无从逃避只能尽力驾驭,以避免成为新技术的奴隶或祭品。我们应努力发挥人类思维优势,纠正机器人思维的教条和误区,填补新技术陷阱,从而彰显人类传媒的话语合法性、文明进步性和文化权威性,促进人类信息传播业的良性发展。■