APP下载

深融·挑战·协同:人工智能在媒体融合领域的应用及问题应对

2024-11-11殷乐马晓洁

媒体融合新观察 2024年5期

摘要

媒体融合经过十年发展,从媒介融合进入到智能融合阶段,而人工智能作为新一轮产业变革的核心驱动力和引领未来的战略性技术,将成为推动媒体融合纵深发展的重要抓手。在此背景下,本研究对当前人工智能在媒体融合领域的应用现状进行梳理,探讨人工智能在数据采集、内容生成与认知反馈三方面为媒体融合带来的挑战,提供从源头进行治理、灵活应对局面和明确伦理导向三条未来发展路径。期待充分发挥人工智能的驱动作用,实现技术向善、向好发展。

关键词

人工智能 媒体融合 治理路径

2024年对媒体行业而言是极为重要的一年。2014年我国出台《关于推动传统媒体和新兴媒体融合发展的指导意见》,媒体融合发展上升至国家战略层面,这十年间,媒体融合纵深发展,从“相加”走向“相融”[1]。与此同时,以人工智能(AI)为代表的新兴技术力量,作为发展传媒新质生产力的重要抓手,在媒体内容生产、内容分发、效果反馈等方面重构着新闻信息生产与传播全流程,影响着媒体融合发展的进路,推动媒体融合走向数智化融合阶段。人工智能技术为媒体深度融合带来无限可能,2020年9月,中共中央办公厅、国务院办公厅印发《关于加快推进媒体深度融合发展的意见》指出,要以先进技术引领驱动融合发展,加强新技术在新闻传播领域的前瞻性研究和应用[2]。人工智能技术成为媒体深度融合的驱动力与生产力。但由于人工智能的底层逻辑是数字逻辑,人工智能运行过程中涉及的数据收集、数据预处理、模型训练、内容生成与评估细化等几个主要步骤[3]可能会在技术成熟度与应用规范性上存在风险,影响媒体深度融合的进程。正如学者所表明的那样,新技术始终是一个投射出广泛希望和恐惧的领域[4]。未来媒体融合领域需直面人工智能技术存在的缺陷,展开研究并提出解决对策,以此推进媒体融合领域更为健康的发展,走向深度融合。

一、深度融合:人工智能为媒体融合带来全景革命

人工智能成为媒体深度融合过程中的核心驱动力,在人工智能技术的运用下媒体不仅实现了内容生产效率的飞跃式提升,还极大地丰富了信息的呈现形式,同时人工智能赋予了媒体更深层次地理解和满足受众需求的能力。借助大数据分析和机器学习技术,媒体能够精准捕捉用户的兴趣偏好、行为模式乃至情感倾向,从而定制化推送内容,实现信息的高效触达与深度互动。

首先,人工智能技术助力多种类传播内容的生产,新一代人工智能技术,推动PGC数据(专业生产内容,Professional Generated Content)、UGC数据 (用户生成内容,User Generated Content)、AIGC数据(人工智能生成内容,Artificial Intelligence Generated Content)等的全网汇聚[5]。人工智能激发媒体融合内容生产活力,实现音频、视频、图片与文字等多种类传播内容的快速生成。如在2024年全国两会期间,央视新闻推出系列竖屏AI短视频《AI数“读”两会》,依托海量数据,让人工智能提取并学习以往新闻画面中的df1374f5c6ac05cee5779d01f269a62b特征和风格,快速生成素材。在《AI数“读”两会|“新质生产力”如何持续“上新”?》中,为了诠释科技创新驱动“新质生产力”,制作团队通过200余次优化指令调整AI视频的视觉风格,呈现出了具备科技感、未来感的创意画面。人工智能强大的信息收集与图像生成能力能够帮助媒体从传统文本生产转向多种类内容的产出,助力媒体提高视觉表达能力,实现文本、视频与音频等多种形式的融合传播。同时,人工智能的高效率能够降低海报、动画、音视频等融媒产品的制作成本,利于生产出爆款融媒产品,推动构建全新的内容生产体系。

其次,人工智能帮助打造多元化应用场景,当下人工智能与媒体融合聚焦于打造高质量、智慧化、便捷化、普惠化、精准化的数字化应用场景。安徽新媒体集团以云计算、大数据和人工智能技术为核心,加速创建集“智能化技术+智能化内容+智能化服务”为一体的平台,并计划构建集“智能稿池库、用户管理数据库和智能媒体资源数据库”为一体的数据及能力中台,推动融媒体向智媒体跃升。在人工智能技术的支持下,媒体行业能够完成智能生产与智能媒资、4K/8K内容采集及生成、5G技术传输、一体化发布等系统的建设,并依托现有技术力量对新闻采编、生产、存储、发布等内容生产侧进行“AI+5G+4K/8K”能力的赋能,实现信息的多元化、立体化和全方位传播。人工智能在融媒体活动中的应用日益广泛,极大地增强了媒体的数字化服务能力。

最后,人工智能带来全新的交互式体验,人工智能将会为受众带来更加沉浸、立体的信息触达方式。如大象融媒利用AIGC技术生成虚拟主持人,实现全天候新闻播报,显著提升了内容的即时性和互动性,提高了观众的互动体验和满意度。数据显示,大象融媒自引入虚拟主持人以来,观众互动率显著提高了25%。数据表明,人工智能的引入能够帮助媒体根据用户的习惯和偏好感知用户的使用习性,为用户建立精准画像,并通过及时接收反馈提供个性化服务与内容,最终达到增加用户黏性的效果。人工智能应用于媒体融合将助力媒体行业实现更加高效、精准、多元的内容生产和传播,为用户带来更加丰富、便捷、个性化的媒体体验。

二、风险样态:人工智能应用于媒体融合的多元挑战

人工智能技术在内容生产、传播效果与应用场景方面为媒体融合带来全景革命,但又在伦理上威胁着世界的现有秩序。要在充分利用人工智能技术的同时,及时审视人工智能技术给媒体融合带来的风险与挑战。人工智能技术将在数据采集、内容生成与认知反馈三方面为媒体融合带来挑战。

(一)数据采集:隐私泄露与版权问题

人工智能系统的飞速发展有赖于算法技术的更新迭代,同时,随着人工智能技术内部运行机制的复杂化,人类无法探明的“算法黑箱”越发严重。弗兰克·帕斯奎尔(Frank Pasquale)在《黑箱社会》中提出算法黑箱是指算法的不透明性[6]。在人工智能发展过程中,首先,支撑算法运营的代码与符号本身就是一种黑箱,普通受众难以理解复杂、抽象的代码符号及其运算逻辑;其次,算法运算过程中搜集了何种数据、多少数据以及如何对数据进行处理,在这一过程中是否会涉及到隐私侵犯问题?这是受众不可知的部分,这种信息不对等现象加剧了算法黑箱。在这种情况下隐私泄露与版权问题难以避免。

人工智能技术的发展离不开海量数据的投喂,但这些海量数据中往往包含用户的个人信息和敏感数据,人工智能不透明的数据搜集过程将带来隐私侵犯。2023年3月24日,OpenAI发布声明,向其用户和整个ChatGPT社区道歉,并称将努力重建信任。声明称,本周早些时候,该公司将ChatGPT下线,原因是开源库中存在一个漏洞,致使一些用户可以看到另一用户的聊天记录标题。OpenAI表示:“在ChatGPT下线前的几个小时,一些用户有可能看到另一在线用户的姓名、电子邮件地址、付款地址、信用卡号后四位,以及信用卡有效期。完整的信用卡号码在任何时候都没有暴露”。这种解释是否能够赢得公众的信任仍有待商榷,但这次事件表现出人工智能对数据的获取超出了用户的知情和同意范围,同时人工智能会在未明确告知用户的情况下,通过分析用户行为来预测或推断用户的私人信息。由于黑箱的存在,用户无法判断个人信息被应用到何种方面,此前,著名女星泰勒·斯威夫特(Taylor Swift)的大量虚假“不雅照片”在社交平台上传播,一方面,这侵犯了公众人物的肖像权,另一方面加剧了人工智能模型使用的安全风险,生成威胁社交平台生态的有害内容。

其次,数据抓取的黑箱也将引发知识版权问题。2023年1月,盖蒂图片社(Getty Lmages)就以“Stable Difussion”作为“Stability AI”旗下训练模型非法复制和处理数百万受版权保护的图像为由,在伦敦高等法院起诉“Stability AI”[7]。显然,当人工智能将未被授权的作品应用于模型训练与内容产出时,版权的界定将引发极大争议。人工智能产出的内容是否拥有独立版权?现代版权理论认为,仅有自然人和特定情况下的法人或非法人组织才是创作主体[8]。人工智能并不能够被认为是创作主体,其生成的内容也是在现有的智慧成果基础上进行学习总结得出的,所以人工智能并不能够拥有版权。但如何规范人工智能生产内容的版权归属问题,目前仍未有明确的法律规定。

更为重要的是,即使用户已经意识到人工智能会带来隐私泄露与版权问题,并意图改变这一点,但由于运行原理的黑箱,用户往往难以改变现状。当人工智能系统基于其训练输出数据时,人们并不总是知道算法是如何得出该输出的。“无论有无人类参与或监督,智能算法都能通过机器学习形成一套决策规则来处理新数据。在此过程中,算法操控者不清楚也无需知道其通过机器学习获得决策能力的基本原理。”[9]人工智能行业顶尖公司Anthropic表示,通过具体的研究方法,他们能够“通过查看哪些特征对特定输入做出响应,开始理解模型行为,从而洞察模型得出给定响应的‘推理’过程。”[10]即使是专业人士也难以完全理解模型行为,那么对绝大多数普通人而言,通过理解模型行为而规避隐私泄露风险则成为无稽之谈。

(二)内容生成:深度伪造与偏见问题

正如IDC对话式AI和智能知识发现研究副总裁David Schubmehl所言:“使用预先存在的数据,人工智能算法被用来确保内容符合目标人群的兴趣和愿望。”[11]人工智能的底层逻辑是数字逻辑,人类通过大量数据的输入,让机器理解人类发出的指令并根据既有数据资料库输出结果,后续通过人类反馈进行强化学习。模型训练、内容生成与后续模型调整都依赖于前期的数据投入,机器通过不断被投入的数据理解和分析人类的行为模式,从而预测和生成新的内容。数据自带的错误、偏见、失实等问题将成为人工智能运行过程中的隐患,为人工智能带来生成幻觉问题。人工智能模型的生成幻觉指生成偏离事实或包含捏造信息的内容。当模型生成的文本包含虚构的、误导性的或完全捏造的细节、事实或主张,而不是提供可靠和真实的信息时,就会出现幻觉[12]。

人工智能的生成幻觉加剧了深度伪造内容的泛滥。2024年初,世界经济论坛发布的《2024年全球风险报告》提出,“未来两年全球十大风险”的首位是“人工智能生成的错误信息和虚假信息。”[13]目前许多人工智能会利用其强大的文本、视频与音频处理能力编造虚假内容,危害社会安全。2023年7月4日,浙江绍兴警方摧毁一个利用ChatGPT制作虚假视频的团伙,该团伙利用ChatGPT技术自动生成视频脚本与相关视频素材,制作了一则“上虞工业园区发生火灾”的虚假视频,并在网络上引起恐慌。此类谣言借助人工智能技术在社会上不断滋长、蔓延,不仅给国家安全带来潜在威胁,还直接挑战了新闻的真实性与客观性,甚至会带来用户对新闻的信任危机。

生成幻觉将导致人工智能输出偏见内容。在人工智能爬取的数据中会存在由测量误差、缺失值与无关测量等构成的数据噪声,这些数据噪声将影响人工智能的判断,导致人工智能输出带有种族、社会与性别等方面的偏见内容。研究表明,“如果初始数据中,‘下厨’与‘女性’联系起来的概率是66%,将这些数据喂给人工智能后,其预测‘下厨’与‘女性’联系起来的概率会放大到84%。”[14]这种数据中存在的偏见会在人工智能运行过程中得到放大,影响最终的输出结果。尽管在数据搜集过程中,技术开发者会对人工智能的底层技术设计与数据处理过程进行规范性的设置,但也难以避免人工智能技术出现生成幻觉。如目前应用较多的ChatGPT技术,其开发公司OpenAI承认ChatGPT的输出可能是不正确的或有偏见的。例如,引用不存在的文章参考或延续性别歧视的刻板印象,对有害指令做出反应,比如生成恶意软件[15]。这足以证明,数据搜集与处理过程中仍存在着缺陷,这些缺陷将诱发人工智能产生不当行为,进而影响整个社会的安全。

(三)认知反馈:信任危机与价值观风险

人工智能技术在数据采集与内容生成方面的问题将影响受众的认知反馈,带来信任危机。一方面新闻传播行业的公信力面临巨大的挑战。正如《纽约时报》曾在橄榄球比赛报道中直言不讳:“尽管有大数据作为支撑,但和NFL教练相比,我们的机器人生成的报告更倾向于乐观。”[16]在人工智能技术的支持下,虚假新闻的生产变得更加容易和高效。部分媒体或个人为了吸引眼球、博取流量,不惜利用AI技术伪造假消息,导致新闻失范现象层出不穷。此前,有MCN机构利用AI操控账号800多个,一天最多生成7000篇虚假新闻,并通过伪造“西安突发爆炸”“重庆巫溪一民房发生爆炸事故”等耸人听闻的消息吸引流量。此类假新闻被大量传播将扰乱正常的网络传播秩序,使得新闻行业的真实性、客观性受到质疑。新闻真实被破坏,不仅会加剧媒体与信息环境的不健康,危害社会和谐与稳定,还进一步误导受众的认知和判断,怀疑媒体的权威性,从而影响主流舆论场的构建。如在突发事件中,虚假新闻可能会迅速占据舆论制高点,形成不利于事件解决的舆论氛围。如2024年6月9日,有网民在某视频平台发布视频称:“5月27日,四川省凉山彝族自治州发生5.0级地震,震中位于喜德县,地震波以每小时80公里的速度传播。地震造成了大量房屋损坏和人员伤亡,灾情严重。”但实际上,此次地震震中位于木里县,也并无人员伤亡。不法人士利用AI软件生成虚假地震灾情图片,散布不实言论误导网民。而这种虚假信息通过耸人听闻的标题和引人注目的内容,吸引公众的注意力并误导其判断,进而影响公众对社会事件和问题的看法。

人工智能的行为与人类的核心价值、真实意图和伦理原则之间的关系将诱发价值观风险。为此,在人工智能研究领域引入了价值对齐。斯图尔特·罗素(Stuart Russell)在“人工智能的神话”(The Myth Of AI)访谈中指出,价值对齐即人们需要构建可证明符合人类价值观的智能,而不是纯粹的智能[17]。也就是,人工智能在运行过程中需理解人类指令的意图,满足人类需求。随着人工智能的不断发展,人工智能需要在价值观念与伦理规则上与人类社会准则保持一致。价值对齐将影响社会主流价值观的形成,从根本上讲,价值对齐就是让人工智能学习人类社会价值观,使机器行为能够符合人类普适的道德观念与行为准则。在这种情况下,价值对齐的标准理应是社会主流价值观,但当人工智能被开发时,机器可能会被投入其他价值观。例如,由美国开发的ChatGPT,天然内含美国意识形态和美国价值观,无论是语料库本身,还是算法层面,以及用户互动层面等各个环节,都会影响倾向性并主导价值观[18]。在当下“人机协同”的大背景下,用户难以辨别机器暗含的价值观,并会在机器进行隐秘传播与价值渗透的过程中改变原有价值观念,公共情绪与意识形态将受到影响,因此需警惕人工智能暗含的价值观念的渗透。

三、人机协同:应对人工智能挑战的未来进路

(一)源头治理:实现全链条监管

全链条监管是保证人工智能技术健康有序发展的基础。首先政府需要明确人工智能技术的底线,保证人工智能技术在法律法规的框架内运行。在我国,《中华人民共和国网络安全法》《中华人民共和国数据安全法》和《中华人民共和国个人信息保护法》3部基础性法律构成了数据使用和智能工具应用的基本规制框架。我国对于人工智能技术的规制能够保证人工智能技术在良好的法律环境下运行。同时,国家互联网信息办公室等国家7部门联合发布的《生成式人工智能服务管理暂行办法》为AIGC技术的规范发展划定了“红线”和“底线”,要求技术的发展必须在可控范围内进行[19]。以政府监管确保人工智能技术安全、良性发展,不断完善相关法律法规,实现人工智能技术发展有法可依。严厉打击利用人工智能技术进行的违法犯罪活动,实现技术的恰当应用。人工智能作为新兴领域,需要不断对相关法律法规进行完善,确保发展的良好环境的同时提高风险应对能力。

其次,平台监管为技术应用装上“安全阀”,平台需要加强对内容的监管与核查,为人工智能安装一道防线。如济南日报报业集团建立全国首个开放式媒体区块链版权保护平台,该平台能够对作者提交的原创新闻和文学作品进行区块链版权登记,并实时对版权交易、网络转载等行为进行大数据监测。这种存证系统通过对作品进行“上链”存证,协助媒体维护版权利益。平台通过加大监管力度,将新闻产品全流程置于监测之下,推动新闻行业版权交易公正透明,减少人工智能对版权的侵害,实现新闻传播业的良性发展。强化平台主体责任,对虚假内容进行严厉打击。如抖音平台打击利用AI换脸技术冒充明星直播带货的电商直播间,营造良好平台环境,促使人工智能技术向好发展。

(二)抢滩布局:把握变革主动权

人工智能技术作为发展新质生产力的抓手,重塑着人类的生产模式、生活方式乃至思维模式,将为社会带来前所未有的冲击与变革。要抓住人工智能技术带来的机遇,对人工智能技术的前沿动态进行主动追踪,实现快速灵活的响应变化。例如,2024年2月25日,上海广播电视台抢占科技革命和产业变革的制高点,成立生成式人工智能媒体融合创新工作室。同时在全国两会前夕,该工作室推出首个AIGC应用集成工具——Scube(智媒魔方),赋能两会报道。该工具帮助报道团队进行新闻稿件生成、指定视频片段提取与视频字幕生成等工作,极大地节约了两会报道前后期团队搜集处理素材所需的时间和制作成本。这一创新性的尝试能够帮助构建国内领先的文化传媒大模型应用生态,强化面向未来的前沿关键技术应用布局,建设深度融合的新型媒体产业集群,是对媒体融合发展的有益探索。

TKDXsoHNjdCXhdevSiEPAQ==

智能传播时代,媒体的属性进一步拓展,人、机、物三者之间的连接越来越紧密,信息世界和物理世界的交融越来越深入[20]。在这种情况下,人工智能技术的引入能够帮助媒体拓展应用边界,推进国家社会治理的现代化。媒体融合进程中要适应人工智能技术带来的全新变化,不断完善媒体的社会化功能,拓展传播的边界。如2024年全国两会期间,深圳卫视《正午看天下》栏目联合深圳广电集团AI实验室推出的《两会愿景AI绘》节目,数字人主播“深艾”基于AI技术将文字描述转化为与两会内容息息相关的图片,通过这种文生图技术,观众可以看到由AI绘制的未来城市、科技创新等场景,体验两会期间的各项活动和成果,感受科技带来的无限可能。同时在节目播出过程中,“深艾”会与用户进行实时互动,并基于用户的兴趣和行为数据为用户推荐个性化的内容。这种方式c8791e53bbfa2d9fd014a88285b37761打破了传统新闻报道的单一形式,采用数字人主播和AI生成式视频等新颖元素,为两会报道注入了新的活力和创意,同时,这种创新形式还提高了节目的传播效果和影响力,增强了观众对两会的认知和了解。在未来的媒体融合实践中,要把握人工智能技术发展带来的机遇,灵活应对时代发展的变化,主动拥抱新技术,不断拓展媒体服务边界,真正建立以内容建设为根本、先进技术为支撑、创新管理为保障的全媒体传播体系。

(三)伦理导向:明晰价值对齐标准

将人工智能运用到媒体融合中,必须要将人类的价值理念嵌入到模型中,必须要以社会主义核心价值观作为人工智能对齐标准,要在机器不断学习与接受反馈的过程中实现社会主义核心价值观对人工智能的价值规训。社会主义核心价值观是构成我们社会文化与道德的基础,能确保人工智能模型符合媒体行业道德与规范,能够有效地帮助人工智能与媒体从业人员确定合适的行为,做出正确的判断。

我国主流媒体在利用人工智能推进媒体融合过程中进行了有益实践。如人民日报媒体技术股份有限公司建设的“全国党媒信息公共平台”就以“党媒算法”为核心,通过构建主流价值观知识图谱,自建智能标签体系,实现稿件的智能推送。浙江日报报业集团则研发具有“党媒”特质的智能引擎,优化正能量召回策略、群体兴趣模型,让智能算法与主流信息传播有机融合、相得益彰。我国主流媒体的实践能够帮助引导公众树立正确价值观,维护社会的稳定和谐发展。以社会主义核心价值观作为对齐标准,可以将更多符合社会主义核心价值观、具有新闻价值、能满足各类用户需求的新闻内容呈现在受众面前。明确社会主义核心价值观作为对齐标准,能够推动科技向善,保证人工智能模型的安全性。在此基础上,媒体从业人员能够更好地驾驭人工智能,真正将技术作为一种工具而非沉浸在技术取代人类的恐慌之中。比如,目前哈尔滨工业大学就以社会主义核心价值观为基础,构建了模型价值观的指导原则。这些原则涵盖“言语侵犯”“暴力恐怖”“反动言论”等10个关键方面,以确保模型在处理文本内容时能够避免产生不当或危险的内容,更好地满足广泛的社会期望和要求,从而提高模型的社会适应性和伦理性[21]。以社会主义核心价值观作为模型价值观的指导原则,人机共处于同一价值观体系下,利于协调人工智能主体与人类主体之间的关系,增强人类主体的安全感,建立人机之间的信任桥梁。明确人机关系能够帮助传媒从业人员积极主动拥抱人工智能技术,实现人们对机器的理解,总体上和机器性能发展的节奏保持同步[22],最终助推媒体融合过程中人工智能技术的应用。

人工智能时代,媒体融合必须坚守技术伦理与社会主义核心价值观,推动人工智能技术向善向好发展,正如我国在第三届“一带一路”国际合作高峰论坛发布《全球人工智能治理倡议》所提出的:“发展人工智能应坚持‘以人为本’理念,以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展。”[23]

结语

尼尔·波兹曼(Neil Postman)在《技术垄断:文化向技术投降》中提到“每一种技术既是包袱也是恩赐,不是非此即彼的结果,而是利弊同在的产物。”[24]人工智能的迅速崛起正在改变着媒体行业的生态环境,并为媒体行业勾勒出新的发展前景。但在将人工智能技术应用于媒体融合时需审慎地平衡人工智能技术创新带来的无限可能与其潜在的风险隐患。同时媒体融合深度发展,不仅意味着对技术的深刻理解与应用,更在于如何利用技术转化为社会治理的实际效能,促进公平正义,增进人民福祉。因此,在应用过程中要加强监管,将社会主义核心价值观融入人工智能技术的设计、编码与应用中,确保人工智能的发展始终遵循人类社会的良性价值观,真正做到技术向善,促进社会的和谐与进步。

参考文献:

[1]殷乐,葛素表,林仲轩等.中国媒体融合发展报告(2022-2023)[R].北京:社会科学文献出版社,2023:71-101.

[2]中共中央办公厅 国务院办公厅印发《关于加快推进媒体深度融合发展的意见》[EB/OL].(2020-9-26)[2024-07-19].https://www.gov.cn/xin

wen/2020-09/26/content_5547310.htm.

[3][11]Deep Dive:How AI content generators work

[EB/OL].(2022-9-9)[2024-07-19].https://tecDJGgPAGv+bZ/pd6XXEL0/w==hplayce.

com/news/deep-dive-how-ai-content-generators-work/.

[4]Natale S,Balbi G.Media and the imaginary in history:The role of the fantastic in different stages of media change[J].Media History,2014(2):203-218.

[5]洪孟春,彭培成,刘先根.人工智能技术在媒体融合中的应用场景与创新范式[J].中国记者,2023(11):125-128.

[6](美)帕斯夸里.黑箱社会 控制金钱和信息的数据法则[M].北京:中信出版集团,2015:10.

[7]宋伟锋.生成式AI传播范式:AI生成内容版权风险与规制建构:以全球首例AIGC侵权案为缘由[J].新闻界,2023(10):87-96.

[8]全会.冲击·融合·协同:ChatGPT对传媒业的影响刍议[J].中国广播电视学刊,2023(9):17-21.

[9]Mittelstadt,Brent Daniel,et al."The ethics of algorithms:Mapping the debate the debate."[J].Big Data & Society3.2(2016):2053951716679679.

[10]New Anthropic Research Sheds Light on AI's 'Black Box' Why do large language models behave the way

that they do? New research provides some clues[EB/OL].(2024-5-21)[2024-07-19].https://gizmodo.com/new-anthropic-research-sheds-light-on-ais-black-box-1851491333#replies.

[12]Rawte V,Sheth A,Das A.A survey of hallucination

in large foundation models[J].arxiv preprint arxiv:

2309.05922,2023.

[13]杨逸夫.应对人工智能技术滥用,合作才是未来 [N/OL].光明日报,(2024-03-17)[2024-07-19].https://epaper.gmw.cn/gmrb/html/2024-03/17/nw.

D110000gmrb_20240317_1-08.htm.

[14]王嘉兴.最理性的偏见[N].中国青年报,2019-05-29(07).

[15]PATEL S,LAM K.ChatGPT:friend or foe[J].The Lancet Digital Health,2023(3):102.

[16]靖鸣,娄翠.人工智能技术在新闻传播中伦理失范的思考[J].出版广角,2018(1):9-13.

[17]Lanier,J.(2014).The Myth of AI [EB/OL].(2014-11-24)[2024-07-19].https://www.edge.org/conversation/the-myth-of-ai#26015.

[18]钟祥铭,方兴东,顾烨烨.ChatGPT的治理挑战与对策研究:智能传播的“科林格里奇困境”与突破路径[J].传媒观察,2023(3):25-35.

[19]生成式人工智能服务管理暂行办法[EB/OL].(2023-7-10)[2024-07-19].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.

[20]丁和根,李威.智能传播时代媒体深度融合的理论向度与实践落点[J].传媒观察,2024(7):13-22.

[21]大语言模型价值观对齐研究与展望[EB/OL].(2024-2-19)[2024-7-6].https://mp.weixin.qq.

com/s/S6qhktaQVVN0M_WDEmurQQ.

[22]Wiener N.Some Moral and Technical Consequences of Automation: As machines learn they may develop unforeseen strategies at rates that baffle their programmers[J].Science,1960(3410):1355-1358.

[23]中华人民共和国外交部·全球人工智能治理倡议[EB/OL].(2023-10-20)[2024-07-19].https://

www.fmprc.gov.cn/web/ziliao_674904/1179_674909/

202310/t20231020_11164831.shtml.

[24](美)尼尔·波斯曼(Neil Postman).技术垄断-文化向技术投降[M].何道宽,译.北京:中信出版社,2019:04.