媒体传播中人工智能大量运用的风险、成因及未来路径
2023-12-26○何霞
○何 霞
ChatGPT的问世在2023年初引起整个世界关注。人工智能的发展已成为全球焦点,从机器学习、机器人,无人驾驶汽车到聊天机器人,人工智能改善和便利人类生活的同时,也给人类社会发展和社会治理带来诸多风险与挑战。
一、人工智能大量运用背后的风险
人工智能的大量运用给社会各行各业带来巨大冲击,它在带来智能化和高效率的同时,也带来诸多伦理问题与风险挑战。主要体现在以下几个方面:责任主体的难以界定、隐私泄露、社会安全问题、不平等现象的加剧、就业冲击及损害市场竞争行为。
人工智能的发展给责任伦理理论提出新的难题,当人工智能系统因为自身产品的某个缺陷引发不可避免的损害时,如何界定责任主体是目前的难题。如无人驾驶汽车在行驶过程中遇到突发危险时,启动程序选择保护车内人员还是选择保护行人?[1]谁来为这种选择以及选择后所产生的后果承担责任是目前的困境。人们通过使用人工智能技术留下的痕迹和产生的包含个人隐私的许多信息是可免费获得的,由于人工智能算法可以综合多方数据以识别并确认公民个体身份,从而引发数据隐私担忧。近几年基于人工智能和自动控制系统的强大武器和监控设备越来越多地被一些国家或地区运用,在战场上它们具有很强的破坏性,而令人类更为担忧的是一旦这种武器落在恐怖组织手中会产生很严重的后果。与人类劳动力相比,机器能够在短时间内创造较高的收益。这样一来,提供基于人工智能设施的公司比提供劳动力的人将获得更多的收入,这会造成收入不平等和贫富差距越来越大的问题。人工智能的崛起已经让部分工作被机器人取代,在改善生产效率的同时,造成一些行业部分人员失业,或因人工智能的应用而导致劳资相互权力关系发生变化。人工智能的应用可能导致损害竞争的情况出现,最典型的例子便是“大数据杀熟”所牵涉的歧视定价问题。为什么老客户看到的同一个产品或服务的价格比新客户还高?在人工智能技术基础上,通过对用户信息的分析,出现区别对待不同用户的“价格歧视”。
二、人工智能大量运用引发风险的成因
(一)算法和数据背后的秘密
人工智能建立在现代算法基础上,并结合数据进行计算以实现相应的目标。算法和数据是人工智能的两大核心板块。人工智能的算法有很多种,这些算法是由人类开发设计并实施。目前,没有保证算法的公正性的措施,一些算法中隐藏着不公与偏见。算法尽管不会撒谎,但算法偏见是真实存在的,这些隐藏的偏见会带来各种问题。除此之外,技术复杂的算法在规模上的不透明性使得它们很难被仔细观察,导致公众在如何行使权力方面缺乏清晰界定。所有人工智能依赖于数据驱动,而数据的质量,数据的选择背后都隐藏着不可追溯性及不可解读的挑战。
(二)技术开发人员隐藏的偏见
技术设计者在程序设计中本意是以客观中立的态度去开发设计产品,但是人类毕竟是有情感、自我意识、自我经验和价值观的高等动物。技术开发者在程序设计中难免有时会带着他/她的喜好与偏见设计产品,这种偏见或许技术开发者自己都没有发觉,但它会引起各种偏差与问题。
(三)社会相关部门的作为力度不够
人工智能运用面临诸多伦理问题与挑战,除了算法和数据、技术开发人员自带的偏见等因素外,社会大环境及相关部门没有在人工智能发展上扮演好相关角色,也是造成人工智能陷入诸多伦理困境的因素之一。政府部门、研究机构、企业、学术界需要分工明确,扮演好各自的角色,一起致力于促进人工智能社会的发展。
三、人工智能运用在媒体传播中产生的风险与挑战
近几年,国内外出现了机器人从事写稿工作,人工智能运用在媒体传播中越来越受到青睐。2022 年北京冬奥会中央广播电视总台央视新闻AI手语主播为听障人士带来手语解说,引起了极大的关注。[2]尽管媒体传播中人工智能的运用带来了一些话题,但也给媒体行业的运营带来了一些风险与挑战,主要体现在以下几个方面。
(一)人文关怀的缺失
机器是冰冷的,只会按部就班地采集信息、写稿件、机械地整理材料汇编成文。很多时候机器写出的是平淡的、枯燥的、缺乏人情味的稿件。算法推荐的工具理性、科技理性至上,忽略了价值理性中那些真、善、美等的思想意识。[3]机器人扮演媒体从业人员的角色导致媒体缺失人文关怀。人工智能技术的发展以技术本身为导向,注重效率和利益最大化。一些媒体也倾向于追求市场效应,这种商业导向使得人工智能在媒体传播中可能被过度使用,而忽视了人文关怀。
(二)新闻消费问题增加
由于大数据和算法的使用,针对用户个性化需求的定向新闻推送容易形成“信息茧房”,导致用户视野狭窄,过多接受所偏好的信息,忽略社会上别的信息,从而导致社会上不同人群的心理区隔愈发严重。[4]新闻作为一种特殊产品,从产品消费的角度看,这样的消费模式更多的是只顾产品销量,而不顾消费者是否会有损失。隐藏在这背后的问题将是新闻消费者完整接受信息和从全局看问题能力的弱化及个人认识的狭隘化。
在三门江林场中,为了使激励发挥其本质作用,真正的实现奖惩分明、奖勤罚懒,就必须制定合理的绩效考核制度,这也是所有企业对员工工作成果评价的重要一环。对员工的工作进行绩效考评,主要体现在两个方面,一个是对工作"量"的考评,一个是对工作"质"的考评。在绩效考核中,往往是综合这两方面来进行,若人力资源管理只关注某一方面,工作就会过于片面。绩效考核,需要对员工工作的优缺点进行客观系统的评价,通过科学合理的考核制度和考核办法,将每个员工的工作考评进行量化,得到一个最终成绩,依据此成绩,对员工的工作进行奖励和惩罚决定。
(三)主流媒体影响力弱化
在自媒体及平台型媒体崛起的背后,流行着“流量为王”或急于变现的新闻生产及分发模式。尽管人工智能技术辅助生产的新闻数量有限,但通过人工智能技术分发推送的新闻数量庞大,且推送给用户的这些新闻多数是一些娱乐或社会新闻。而传统主流媒体生产的时政要闻等严肃新闻在这样的泛娱乐化冲击下,订阅率和点击率明显降低。在人工智能的影响和推动下,一些主流媒体因对受众数量、点击率和广告收入密切关注,而忽视了内容的深度和质量。这种情况下,主流媒体的影响力面临下滑的风险,因为受众逐渐对其内容失去信任和兴趣。
(四)隐私泄露问题频现
数据信息是算法生产加工的原料,用户在使用人工智能技术留下的痕迹和信息让他们的个人私隐在一定程度上有暴露的风险。全球对人工智能的私隐问题出台相关保护措施的国家和地区近年来逐渐增加。以欧盟为例,2018 年5 月欧盟开始实行《通用数据保护条例》,旨在保护个人私隐,避免个人信息被滥用。因为人工智能在媒体传播中运用越来越广泛,我国也急需就如何对人工智能领域隐私权法律保护进行研究,对信息进行分级处理,正确界定公私边界,就信息传播业发展和用户私隐保护做到平衡管控。[5]只有出台了具体的规范或条例,人工智能领域个人私隐问题的保护才能做到有章可循。
(五)存在损害新闻客观性的可能性
媒体使用人工智能算法来进行新闻的采写编和分发,隐藏在人工智能编程中的不可预见的偏见可能会损害新闻的客观性。诸如算法使用的数据具有一定的偏见,或者训练数据中存在主观性并使用关于某个群体的固化思维,算法可能会传递这些偏见,影响新闻的客观性。在生活快节奏的今天,用户利用碎片化时间通过社交媒体来获取新闻和各种信息,但一些社交媒体平台上存在一些虚假信息和不实报道,这些平台通过人工智能算法进行内容推荐,将虚假信息在极短的时间内传播给众多用户,这样也损害了新闻的客观性。
(六)保密内容的安全问题
人工智能在媒体传播中的应用通常需要大量的数据进行训练和优化。如果这些数据涉及保密内容和敏感信息,相关媒体机构因为疏忽没有妥善保护这些数据,那么会面临数据泄露并导致保密新闻曝光的风险。目前现实中的智能系统可能存在安全漏洞,而一些黑客或不法分子可能会利用这些漏洞来进行未经授权的访问,获取保密信息。另外,新闻算法在技术上也会存在一些漏洞,可能出现一些保密新闻在设备受到攻击或因技术瑕疵被泄露出去,引发一系列的安全问题。
(七)媒体从业人员就业问题
人工智能的崛起尤其是机器人记者和编辑的出现,如,腾讯的写稿机器人Dreamwriter、百度度秘,IBM 的Watson 等,势必会给媒体从业人员带来压力。人工智能技术的应用可以帮助媒体降低制作成本,诸如通过自动化生成稿件等,人工智能可以在短时间内完成大量的工作,造成媒体从业人员失业。人工智能的广泛应用也可能导致媒体产业结构的调整,一些传统媒体可能难以适应新技术的发展,导致转型困难和经营困难,导致媒体工作者面临失业的困境。
(八)知识产权问题
人工智能技术在新闻信息收集与分析方面具有一定优势,利用人工智能技术生成的新闻报道或文章等是否具有著作权,以及著作权归属如何界定等问题;大量的数据在人工智能的训练过程被使用,这些数据可能是他人创作或拥有的,使用这些数据进行训练是否涉及数据版权的问题;具有创新性的人工智能算法可以申请专利,如果某家媒体开发了新型的算法并申请了专利,其他媒体机构是否可以使用类似算法,等等,这些问题可能成为争议的焦点。除此之外,人工智能技术可以合成图像和声音,也涉及肖像权和声音版权问题。不难看出,怎样对信息或数据来源进行知识产权保护以及怎样界定人工智能技术创作的新闻作品或音像作品的著作权归属问题,都是处理人工智能与知识产权关系的难题。
四、人工智能运用在媒体传播中引发风险的成因
(一)新闻算法隐藏的偏见
新闻算法对于提高内容生产与分发的效率的确有显著作用,[6]算法通过在信息的优先排序、分类、关联和过滤方面做出的决策来发挥其效力。由此可见,算法中嵌入了许多人为的影响,不可避免地隐藏着一些人为的偏见。这与新闻媒体应担当客观公正地报道新闻的责任与伦理相悖,而如何将新闻算法中隐藏的偏见降到最低,是技术开发者和媒体从业者需要思考和解决的问题。
(二)算法引领的评价机制诱导
(三)专业人才、复合型人才不足
人工智能是一门交叉性、综合性的前沿学科,而新闻传播业界在专家系统、机器学习和自然语言处理等多方面知识综合掌握的复合型人才不足。一方面新闻专业人才难以驾驭人工智能技术,另一方面算法工程师在构建算法时,缺少对新闻价值的理解。算法工程师与新闻工作者的沟通代沟,在一定程度上影响人工智能新闻的新闻价值。因此人工智能新闻在内容生产阶段会出现弱化新闻原理和新闻道德的问题,在分发阶段一味地个性化推送会导致新闻产品分发市场混乱。
五、媒体传播中人工智能运用的未来路径
智能传播将从专用智能向通用智能方向发展,将人工智能与脑科学进行深度融合并进行人机协同解决复杂难题。著名历史学家尤瓦尔·诺亚·赫拉利(Yuval N.Harari)预测了超人工智能阶段将在21 世纪40-60年代出现,也即人工智能在经历了弱人工智能、强人工智能之后的第三阶段,超人工智能可以超越人类智慧,在某些领域比人类更出色,导致人工智能社会的出现。在这样的背景下,媒体传播中人工智能运用的未来路径有以下几个方向。
(一)制定和遵守人工智能法规
我国在2017 年7 月20 日印发《新一代人工智能发展规划》,在规划中既指出我国人工智能整体发展水平与发达国家存在差距,也强调了人工智能法律法规、伦理规范和政策体系建设的重要性。2022年,我国一些经济发达城市相继通过了一些地方性的人工智能法规与条例,诸如《上海市促进人工智能产业发展条例》和《深圳经济特区人工智能产业促进条例》。总体上看,我国针对人工智能领域的法律法规数量少,内容上侧重于技术和产业的发展。为了适应未来人工智能社会的需要,在媒体传播行业需要制定和完善相应的人工智能法律法规并严格遵守。
(二)加强算法的透明度和可解释性
媒体运用人工智能技术进行信息传播,对使用的算法向受众进行透明的描述并解释算法的运作原理和逻辑,确保受众知情权。在算法的解释过程中注意使用简明易懂的语言向受众描述数据如何采集、处理及运作的流程,这不仅有助于受众理解推荐内容背后的原理,也有助于受众增加消费选择权。当算法发生变化时,媒体应及时向受众披露更新内容,确保受众了解算法变化可能带来的影响。为了确保算法的透明度和公正性,媒体还可以邀请第三方机构的专家和学者对算法进行评估。通过透明的和可解释性的算法推广,不但可以增加受众对算法的信任,也可以提高受众体验,实现可持续的媒体传播。
(三)提升受众关于人工智能的知识储备
许多用户关于新技术的知识储备跟不上人工智能快速发展的步伐,尤其针对老年群体受众。因此,需要采用一些方法来提升他们关于人工智能的理解和运用。媒体可以创建用户教育资源,诸如浅显易懂的文章,或者生动有趣的视频等,向受众普及人工智能的基本知识和应用,并让他们了解人工智能在媒体传播中的作用和影响。媒体也可以通过网上直播、座谈会、讲座等活动,解答关于人工智能的问题,引导受众如何辨别信息来源的可信度等,既增强受众对人工智能的了解和认知,也提高受众的媒介素养。
注释:
[1]闫坤如,马少卿.人工智能伦理问题及其规约之径[J].东北大学学报(社会科学版),2018(04):331-336.
[2]郑弘,丰树琪.人工智能在新闻报道中的突破、传播和价值——以总台央视新闻AI手语主播为例[J].传媒,2022(20):48-50.
[3]陈昌凤,石泽.技术与价值的理性交往:人工智能时代信息传播——算法推荐中工具理性与价值理性的思考[J].新闻战线,2017(17):71-74.
[4]张志安,汤敏.网络技术、人工智能和舆论传播的机遇及挑战[J].传媒,2018(13):11-14.
[5]夏梦颖.人工智能传播环境下隐私权的法律保护及完善[J].当代传播,2019(05):88-91.
[6]彭兰.智能时代的新内容革命[J].国际新闻界,2018(06):88-109.
[7]张志安.人工智能对新闻舆论及意识形态工作的影响[J].人民论坛·学术前沿,2018(08):96-101.