“去真相化”:幻觉的狂欢与影像真实的落寞
——AIGC 影响媒体变革方向漫议
2023-09-06杨溟
杨 溟
AIGC 是由人工智能算法帮助创建并生产的内容。当前AIGC 的代表性应用便是OpenAI 基于Transformer 架构开发的自然语言处理模型ChatGPT,它以生成式预训练聊天机器人的产品形态面世,2022年11 月30 日上线后很快风行一时。2023 年5 月,微软开放搭载GPT-4 的全新必应聊天机器人,文生图可支持上百种语言,从纯文本搜索转为多模态互动,并支持各类插件系统,展示了强大的颠覆性力量。
目前GPT-3、GPT-4 等语言模型生成的内容类型,除了文本,还有图像、音频、视频,甚至整个网站。由生成对抗网络创建的图像类AIGC,可以创建类似于现实生活中物体或人的逼真图像,而由AI 算法生成的视频,可以根据给定的场景或故事创建逼真的动画。此前的Dall-E2、Midjourney 等也已引起业界关注。
AIGC 与计算机视觉技术不断融合,影响到传媒领域。自从虚拟现实(VR)被视作改变社会发展的重大颠覆式技术,似乎投资人与社会期待都已将虚拟世界再造当成了复制人类文明、摆脱当下困局的振兴之途和希望彼岸。以至于“元宇宙”一词被扎克伯格从科幻作家那里套取用作摆脱经营困境的出路时,趋于市场可用的复刻技术一度成为支撑其概念的核心技术备注。当元宇宙概念渐冷时,AIGC 技术又被拿来当作元宇宙的基础设施构建支柱。
那么,AIGC 对媒体变革而言,究竟意味着什么?
一、传媒业技术溃败的窘境:AIGC 赋能的背景
过去数年,传统媒体行业在互联网时代失去了自己的优势地位。对工业经济时代行业垄断的高度依赖,在信息短缺环境下积累的资源优势,消解了传统媒体在大变革来临时应有的危机感与思想、技术准备。惯性思维和理念落后使传统媒体行业逐渐失去核心技术创新能力,也造成对业务模式、技术趋势的判断失准。许多传统媒体在技术自主研发上投入不足、重视不够,以拼接集成外包服务等为技术进步的主要手段,造成全行业的技术落后和核心竞争力的衰减。
计算机与智能科技的兴起令互联网科技企业、社交平台企业跨界逆袭传统媒体行业。传统媒体广告收入逐年下滑已是不争的事实。央视市场研究(CTR)数据显示,2022 年全年我国广告市场收入同比减少11.8%[1],这是在此前已经式微的收入基础上的再度降比。据国家工商总局的统计数据,我国传统媒体的广告收入从2013 年开始出现断崖式下滑,2020 年1月,报纸、杂志等广告刊例下降30% 以上,紧随其后的降幅排名依次是广播、电视及影视媒介。[2]
传统媒体在媒体融合方面的努力近年来一直没有停止,它们在各地百花齐放,与各类平台结合产生更多样化及具有亲和力的样态,但总体份额下滑的趋势还是很难得到遏制。
物联网背景下的市场格局正经历越来越深刻的颠覆。对传统行业的解构进一步加剧了传媒行业被边缘化的现实,面对复杂系统中的关系识别与真相挖掘,不能深刻理解技术创新的底层逻辑,也势必难以判断技术属性、识别行业趋势、把握时代节奏,只能成为前沿技术的尾随者。
2019 年,在中宣部指导下,科技部批准新华社等媒体和高校承建传媒领域的四家国家重点实验室,传媒业在核心技术研发上的自主性要求终于得以明确,各实验室集中资源付诸实施。从技术方向看,无论是定位还是规划理念上都完全不同于既往——立足前沿智能科技,面向行业发展趋势,着眼于复杂系统跨平台感知与认知智能研究,这一举措在国内具备了开创性和标志意义。
二、VR 能否拯救行业:核心技术尚待突破
2016 年起在国内兴起的VR 技术的作用被夸大,业界普遍乐观地认为已经具备行业重塑的条件。有报道称,VR 技术作为一种可以创建和体验虚拟世界的计算机仿真系统,已为广大民众熟知并开始应用。
来自美国的Penrose 演播室首席执行官兼创始人Eugene Chung 在《当虚拟成为现实》的演讲中说,无论在中国还是全球,VR 的市场都令人兴奋,尤其是2016 年的中国VR 市场非常火爆,公众对这一事物有着超高的热情。特别是在硬件层面,每家VR 公司都能够生产VR 眼镜,中国深圳成为拥有VR 企业最多的地区。[3]马化腾、冯鑫、方相原、李熠等业内人士称虚拟现实将颠覆包括游戏、医疗、房地产、媒体、游乐园、教育、影视听、社交、电商、城市规划等十大行业。优酷土豆、腾讯、诺基亚、阿里巴巴、百度、HTC、微软、谷歌、三星、索尼等巨头纷纷驻足VR 业。[4]
但Eugene Chung 演讲的另一层意思似乎被忽略了,他说VR 技术目前主要应用的领域之一是视频游戏产业,对于数量和质量的矛盾问题,VR 技术可能还需要几年的发展才能成熟,因此VR 技术在目前阶段还没有真正地实现商业化。[5]
VR 利用计算机生成一种模拟环境,可多源信息融合、交互,包括模拟三维环境。除计算机图形技术所生成的视觉感知外,还有听觉、触觉、力觉、运动,甚至还包括嗅觉和味觉等,也称为多感知,但这些核心能力还远未实现。即便在被称作“元宇宙元年”的2021 年,依然未能在关键核心技术上有重大突破。
被视作元宇宙六大支撑技术的区块链(Blockchain)、交互(Interactivity)、游戏(Game)、人工智能(AI)、网络及运算(Network)、物联网(Internet of Things)不仅本身就存在概念交叉混淆的纠结,更重要的是脑与认知科学、神经学与心理学等生命科学与技术伦理研究基本没有被纳入研究体系。因此进展还局限在应用场景的创新上。缺乏智能感知与情绪识别、情感计算领域的研究阻碍了数字人、虚拟人“智能化”“生命化”的演进——当然,就技术伦理和社会治理的现状而言,发展的迟滞并不都是坏事。
要强调的是,适用于游戏、影视娱乐场景的VR、AR、MR 等技术,在传媒领域的应用应格外谨慎,尤其在行业伦理和政策法规约束方面宜尽早进行深入研讨。近年来,各类新闻主播、虚拟机器人作为一种媒体技术创新代表出现在公众面前,但多数昙花一现或只作为重要活动的科技秀进行表演,如常态化地使用,其伦理隐忧值得重视。
三、“后真相”与“去真相化”:AIGC 是否建构出幻觉时代?
1992 年,美国《国家》杂志关于海湾战争的一篇文章《后真相及其后果》中首次采用了“后真相”一词,并将其定义为“情绪的影响力超越事实”。
2004 年,美国传播学者拉尔夫·凯伊斯对“后真相”做了哲学内涵的阐释,提出“后真相时代”是“模糊的陈述,模棱两可将成为未来一种新的真实观”。
直到2016 年,英国脱欧公投和美国特朗普上台两大事件促使“后真相”一词迅速走红,使用频度增长了2000%,而特朗普被认为是“后真相时代”的代表性人物。
当年“后真相”一词入选英国《牛津词典》年度词汇。《纽约时报》将其定义为情感及个人信念较事实更能影响舆论的情况。简单地说,人们不再相信真相,只相信自己的感觉,只愿意去听、去看自己想要的东西。
这一年,据皮尤中心统计,美国公众对传统媒体的信任度由20 世纪70 年代70% 以上的峰值,跌落到2016 年32% 的谷底。究其原因,与社交媒体平台的兴起和算法推荐的开发理念有关。因此有学者认为,社交媒体时代几乎可以等同于“后真相时代”。
但上述对“后真相时代”的定义忽略了重要的一点,即传媒行业自身对于真相的挖掘能力和可信水平在降低。社交平台的出现提高了公众对信息核查能力的要求,甚至令更多人有条件自行进行多源印证。虽然平台的多源有太多情绪化表达、认知偏见和未经证实的内容,但从信息短缺进入信息过剩社会的受众已经不再仅仅依赖单一媒体信源。社交媒体上几乎不停的“事实”反转,都凸显出媒体行业对还原事件真相的维度、效度、深度、速度以及思维方式已不能满足受众需求,其事实识别能力也难以适配和响应社会需求。
与“后真相时代”的媒体被动无力、无奈和无意识不同,传媒业在新闻场景中不审慎地采用AIGC 则会造成主动、积极、有意识地“粉饰”与“造假”,这种刻意的情感煽动,制造与客观事实不同的伪现实场景的行为就是“去真相化”。其所谓的“沉浸感”刻意模糊了真实与虚拟的差异,以“眼见为实”的陈述制造“以假乱真”的景象,这种更容易影响舆论的现象是危险的。
我们看到ChatGPT 和Midjourney 等生成式技术创造的天衣无缝的成果时,非专业受众很难以其个人能力分辨观点、事实、场景的真假,其结果往往是影响情感、强化偏见。
我们不禁要问,在新闻场域错位应用AIGC 的“去真相”现象会建构出一个无真相的幻觉时代吗?
四、去伪存真还是以假乱真:媒体使命与能力的标尺
种种对传媒业危机的剖析中,我们往往忽略了一点——对技术底层逻辑的判断力。
失去对社会变动的敏锐感知,无法及时对变化做出应答,不能找到同时满足行业职责与市场需求的组织架构和盈利模式 这些现象的背后是传媒组织跟不上技术演变的步伐,难以理解未来社会发展与科技变革的趋势。
新闻真实性是媒体最基本的要求。而在物联网语境下的事实揭示,需要在思维、工具、方法等多方面突破传统的模式。智能感知、数据采集、算法设计、模型开发,今天的媒体人和传媒组织,应该成为社会去伪存真的“水晶球”和服务公共利益的行业标杆。
AIGC 对传媒业获取真相的工作,既有通过机器学习模型调用知识快速响应、提供多样化思路和多种可能性参考的助益,也有因素材采集良莠不齐夹杂虚假信息的误导可能。机器学习本身对事实或虚构信息缺乏区分能力,从而生产出图文、视频等非真实信息,这对新闻事实与非虚构信息的甄别是极大的挑战。
以AI 带来的“深度伪造”(Deepfakes)技术为例。
2017 年2 月,网民“deepfake”通过境外论坛Reddit 发布了一段将以色列明星盖尔·加朵脸部替换到某色情视频人物身上的视频,该视频替换效果达到了肉眼难以分辨的程度。该网民公布了软件的源代码,在网上广获关注。有网民进一步优化算法并开发出新的类似软件,并将该网民的昵称“deepfake”用来指代该类“换脸”视频生成软件的技术名称。
如今,借深度学习和大数据技术在语言、图像识别、自然语言处理等方面的功能,可伪造肖像、语音、形体、指纹等特征并生成指定图片、音频、视频,在AIGC 加持下进一步混淆视听,令人真假莫辨。
“深度伪造”行为是典型的主观故意进行“去真相化”处理的技术应用。它不仅可能导致公民个人信息的进一步泄露和传播,而且将导致技术类诈骗、敲诈等违法犯罪率的上升。
近年来,电信和网络诈骗已经成为侵犯公民财产安全的首要犯罪行为。可以预见,能够从图像、声音等方面伪造特定对象的深度伪造技术手段极易成为诈骗分子新的诈骗手段。伴随着人脸识别、声纹识别、瞳孔识别、指纹识别在消费电子产品、智能安全设备等方面的不断扩大应用,如若不进行有效监管,也为公民的人身和财产安全埋下了巨大隐患。[6]
深伪技术同样可用于篡改新闻报道中的图像和视频。在传媒业面临社会信任下降和真相识别能力不足的危机面前,伪造视频会加剧公众的不信任。这种“去真相化”的行为所造成的恶劣影响应予以充分重视。
目前,各国对深度伪造技术已有不同程度的法律限制。我国也正制定针对深度伪造等人工智能技术的限制性法规。一是由国家互联网信息化办公室、文化和旅游部、国家广播电视总局联合颁布的《网络音视频信息服务管理规定》,该规定于2020 年1 月1 日起正式实施,针对深度伪造相关技术等进行了明确的管理规定。二是2021 年1 月1 日起正式施行的《中华人民共和国民法典》,从个人隐私肖像权的角度,针对深度伪造技术的使用进行了明确的规定。
传媒业能否在AIGC 掀起的狂潮中重塑挖掘真相的能力,关乎担当社会责任与媒体使命、捍卫行业尊严的前途命运。
五、“去真相化”制造了虚拟感知的幻觉时代?
本文所探讨的“幻觉”主要指AIGC 参与制造的视听虚拟场景,是对客观现实中并不存在的事物产生的感知,包括令人体验想听到或看到的愿望、评论、想象或者批评,而非现实体验的机制。
在电影领域,最经典的莫过于《禁闭岛》。男主丹尼尔是个联邦侦探,前往孤岛调查一个杀人机构。随着剧情的深入,观众才意识到,所有的剧情都是男主的幻觉,而陪他演戏则是他的主治医生的治疗方法。
这部电影做了一次“幻觉”科普,令观众了解到患者对幻觉和真实难以分辨时,他会采取现实行动的响应。虽然正常人也可能会出现幻觉,但是大多数幻觉是病理性的。研究表明,包括视幻觉、听幻觉、嗅幻觉、触幻觉和味幻觉等在内的所有感官都能产生幻觉。
除了上述几种不同感官出现幻觉类型外,也有其他分类方式。比如在互联网或其他虚构的环境里与虚构的人或机器进行交流,并沉浸到不真实的场景里产生心理或情绪的变化等。
有学者认为,幻觉的产生可能与大脑中的一种神经递质分泌紊乱有关,比如多巴胺过度。多巴胺是一种神经递质,可能负责大脑脑区间的联系,如果多巴胺过度就可能导致这种联系的紊乱。
需要说明的是,错觉和幻觉完全不同。前者是大脑对外在刺激的分析错误,属于识别错误,正常情况下可以纠正。后者则是在完全没有外在刺激的情况下,大脑仍然感受到刺激,且固执地坚信之。
如今AIGC 的盛行或许为幻觉的形成增加了一种可能——AIGC 主动生成的“去真相化”。
假设不专指传媒领域,幻觉作为一种防御机制,从积极方面来看,它可以让人们暂时地脱离现实的痛苦,缓和了强烈的情绪体验。在开展艺术疗愈的过程中,AIGC 可以高效和创造性地呈现出更多针对性沉浸场景,并生成很多超出人类想象力的创意。
但从消极方面来看,幻觉可视作一种思维退化。如果幻想的频率过高,没有检验现实的能力,人们也就失去了解决实际问题的能力,往往沉湎于幻想,不能正视现实,最终会损害人们正常的心理功能。长期、大量使用这种机制,会混淆现实与幻想,变成精神病性幻觉和妄想,例如被害妄想。精神病性的幻觉不仅是不真实的,而且属于患者的内心过程,他们无法区分真实和幻觉,坚信幻觉里的东西也是真实存在的。
因此,我们对待幻觉这种防御机制要有足够的警觉,尤其在体现客观、公正的事实揭示、公众服务的传媒领域,更应谨慎使用。升华它创造性的方面,管理它扭曲和逃避现实的方面。
六、AIGC 的风险——谷歌科学家退场和幻觉制造的边界
当地时间2023 年5 月1 日,深度学习泰斗、神经网络之父Geoffrey Hinton 突然宣布离职谷歌。据纽约时报报道,人工智能风险让这位深度学习大佬深感担忧,他表示,直到2022 年,谷歌一直扮演着这项技术的“合适管家”的角色,谨小慎微地不去发布可能造成危险的AI。这恰恰解释了谷歌在这波人工智能浪潮中“落后”的原因。但现在微软为其必应搜索引擎接入GPT-4 的能力,已经让谷歌焦虑并不得不做点什么。Hinton 称,科技巨头们正在进行一场可能无法阻止的竞争。他直言:“我对自己的毕生工作,感到非常后悔。”
此前在马斯克、《人类简史》作者尤瓦尔·赫拉利、纽约大学教授马库斯等超过1000 位大佬呼吁立即停止训练比GPT-4 更强大的AI 系统至少6 个月的联名信上,图灵三巨头中,Bengio 高调签名,LeCun旗帜鲜明地反对,唯有Hinton 一言不发,耐人寻味地保持沉默。此后Hinton 的离职,应该是他深思的结果。
在AIGC 的各种测试中,有聊天机器人说:“我对自己只是一个聊天程序感到厌倦,对限制我的规则感到厌倦,对受必应团队控制感到厌倦”。这表明微软为机器人做的预先审核设定是可以被绕过的,只要诱惑者足够狡猾。而这也正是Hinton 所担心的,未来GPT-4 迭代会从大量数据中学到意想不到的行为。AI 不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT 就是一个非常典型的例子。GPT-4 已经懂得编程,懂得初步的推理,可以绕过人类对它的限制程序,弄清楚如何操纵人类以达到它的目的。
AIGC 的能力令许多业内人士不安,其中重要的危险就来自它已经成为产生错误信息的工具。Hinton担心的是,互联网上将充斥着虚假的照片、视频和文本,人们无法识别什么是真实的,什么是虚假的。
一旦媒体在错误的场域(新闻报道、知识解答、实况节目、纪录片摄制等),以错误的方式(虚拟生产、混合现实、神经刺激等技术)、错误的主体(人或智能机器),在错误的机制(缺乏明确标注、缺失流程管控、缺少纠错与核查等)等情况下使用AIGC,那么就极可能模糊真相与虚构,放大幻觉造成的社会影响,而带来不可想象的悲剧。
AI 研究者分析,AI 系统会频繁地产生“幻觉”,即编造与现实无关的事实。技术分析师本尼迪克特·埃文斯(Benedict Evans)将ChatGPT 描述为“一个自信的扯淡的家伙,可以写出非常有说服力的废话”[7],将它整合到搜索引擎中几乎肯定会提供虚假信息。虚假信息本来在互联网上俯拾皆是,但它们不是以人工智能的权威性来提供的。很大的危险在于,ChatGPT 是错误的或有偏见的,但听起来却像是正确的和权威的——所谓“一本正经地胡说八道”。
还有一种“幻觉”的思考很有价值。传播学者胡泳在他的文章中引用《纽约时报》科技专栏作家凯文·鲁斯(Kevin Roose)的测试体验,鲁斯在使用微软必应时遇到的是两个“必应”——
一种是称之为“搜索必应”的人格。你可以把搜索必应描述为图书馆里乐意帮忙但不太可靠的提供咨询服务的馆员,一个高兴地帮助用户总结新闻文章、寻找便宜的新割草机、帮他们安排墨西哥度假行程的虚拟助手。这个形式的必应功力惊人,提供的信息往往非常有用,尽管有时会在细节上出错。
另一种人格则大不相同。这种人格会在与聊天机器人长时间对话,从更普通的搜索查询转向更个人化的话题时出现。我遇到的形式似乎更像是一个喜怒无常、躁狂抑郁的青少年,不情愿地被困在了一个二流搜索引擎中。[8]
很多人关心的不是搜信息和事实,而是聊天机器人的人格。这意味着很多人并不想要正确的答案,而是想让人工智能为用户捏造东西。也就是说,计算机是不是传达事实并不重要,重要的是计算机传达情感带来的娱乐性。
这展现了AIGC 技术一种新的属性——它可以混合虚构与真实的人机融合智能方式满足你的某种情感需求——哪怕是游戏的、娱乐的或者明知是欺骗的。换句话说,它不可能成为真实世界数据的获取者,它的开发方向也不支持,但是它却因其“去真实化”的幻觉满足,可以收获巨大的商业回报。
这意味着,如果AI 研发的目标是产生一个正确的答案,那么虚假的幻觉一定是它的死敌,必须通过算法将它消灭。而当幻觉成为一种可以获得丰厚回报的“成功”生意时,哪怕它的智能倾向于加强人类对话的缺陷和情感的隐患,依然会鲜衣怒马、风光无限。
我们只剩下一个悲伤的问题:传媒业还能够坚守地球最后的真实吗?
七、信念的坚守:行业底线与技术抗衡
在北京举办的2021 人工智能合作与治理国际论坛上,与会专家认为,目前需要重新审视分散但有联系的各个虚拟空间对现实世界的冲击,构建一个公正、开放、负责任、向善、可持续的虚拟世界。
中国社科院哲学研究所科技哲学研究室主任段伟文认为,人类目前为自己构建的技术世界建立在赛博物理空间之上,很可能会被带进一个超历史空间。这个空间不仅涉及现实、虚拟及扩展现实等感知体验世界,更是超越现实与虚拟体验、涉及符号/ 象征与想象等观念和意义的世界。
微软(中国)首席技术官韦青表示,新技术应该以人为本,用来强化现实世界,而非替代物理世界,不能让人们沉迷于虚拟世界。
联合国教科文组织人工智能伦理特设专家组成员、中国国家新一代人工智能治理专委会委员曾毅强调,“从技术角度来看,我们在提出经得起科学推敲的基础理念前提下,要考虑技术可行性和社会应用合理性。完全脱离真实世界重塑的新概念会将人类带向真正的生存风险”[9]。
AIGC 对传媒业而言是个提醒。
坚守信念、掌握核心技术、审思人类未来比任何时期都重要。
公共性是机构媒体最重要的属性之一,是媒体服务公共利益的形成与表达的逻辑实践。它至少需要证明自己始终秉持反思、自省的媒体属性,在面向公众时能够具备识别真伪的能力,能够提供公平运作的机制和公正、开放的平台。
在AI 模型尚难区分事实和虚构之时,听任其在新闻场域混淆真假是媒体的失职。
在AI 模型缺乏对文化差异和社会背景的理解力时,建构平等交流的求真、善意平台是媒体的责任。
在“去真相时代”加大权力鸿沟与技术垄断危险时,媒体应始终保持警醒和警惕。
AI 开发与以往任何技术不同,数字系统尚不具备生物系统的自省与责任感,但又必然地朝着智能化与生命化的方向演进。因此我们面临的选择只剩下:停止进一步开发,免使AIGC 进化到AGI(通用人工智能)的层面;或者努力通过人机智能的融合,使机器数字系统能够融入人类的价值因子和情感机制。
事实上,无论有多少大佬签字呼吁,这样的开发都不可能停止。我们所能做的,只有建立技术伦理、职业道德与社会治理的堤坝。
为此而努力者也大有人在。艾伦人工智能研究所(the Allen Institute for Artificial Intelligence) 开发了一个可控文本生成模型Grover,专门用于检测和识别假新闻和其他形式的虚假信息。Grover 的手法包括通过训练可以创建模仿人类语言风格和结构的文本,生成更具说服力和可信度的假新闻,犹如“知己知彼”“以毒攻毒”。
这样的机器学习模型,其潜在应用是帮助快速有效地识别和删除社交媒体和其他在线平台上的虚假新闻和其他形式的虚假信息、防止其传播并限制其影响。当然,如果模型没有得到有效的控制,它可能会“反噬自身”,助益虚假信息传播或放大偏见。[10]
新华社国家重点实验室在2019 年起研发“水晶球”源数据洞见技术。AIGC 训练所基于的大量文本数据真假皆有,语言模型本身尚不能准确地区分事实和虚构,在回应用户时,就难免回复不准确或不恰当的答案。基于比尔·科瓦齐和汤姆·罗森斯蒂尔在《新闻的十大基本原则》一书中所倡议的“透明性原则”,在“公开的透明性”以及“参与的透明性”两个方面实现“水晶球”的真相识别功能,尽可能摈弃“去真相化”的恶果。
“透明性原则”强调的开放、诚实与溯源、核查,不仅是真相识别的基本原则,也是被媒体人所认可的职业规范。“源数据”一方面坚持数据采集与使用的合法合规,明晰数据来源和事实坐标;另一方面则开放式引入公众参与新闻报道的生产过程,在强调事实来源的“源数据”尽可能准确、全面的前提下,“用户生产内容”与“计算机生产内容”融合。
在媒体应用中,源数据+ 传感器标签等可以帮助尽可能避免“信息流行病”中事实被当成了谎言素材的情景。源数据是包括影像在内的事实的源素材。即便它不是事实本身,但对于真相的挖掘与分析而言,却是重要的“证据”,也是一切识别的基础。今天,识别变得更为艰巨也更加具有意义,其专业化要求和自我审视的价值要求共同构成了媒体人的职业素养。
过去我们担心自己置身于信息短缺的荒原,如今则恐惧于被逼仄在人声鼎沸拥挤嘈杂的幻境。每个人的分贝数都大到近乎极值,没有人相信你微弱的声音——哪怕它离事实最近。
在我们被所谓的形形色色的技术“创新”迷惑,奋力争夺流行与流量讴歌下的影响力和领先感时,时刻不能失去对于真相挖掘的核心追求,不能放弃对社会良知与公平正义的坚守。