智能媒体新闻生产的伦理困境及对策
2021-01-03毕文佳
● 毕文佳
随着5G 时代的来临,人工智能技术已普遍应用于新闻生产的各环节中。在人工智能媒体发展探索的过程中,伦理失范现象不断产生。科技是一种能力,向善是一种选择,本文将探寻智能新闻生产的困境及突围路径。
智能新闻生产的困境
困境一:多元主体参与新闻生产,内容客观性真实性失守。在新闻专业领域,新闻内容需要客观真实地反映事实,在以往传统的“把关人”时代,新闻的真实性、客观性主要依赖于新闻从业者的职业素养与道德操守。随着新闻传播领域的智能化转向,越来越多的非新闻专业领域算法工程师、盈利目的明确的产品经理、网络新闻高频互动转发的受众在平台化的媒介生态中共生,对于算法的建构偏向及新闻内容生产分发都有着重要影响,算法的研发设计偏见使得多元参与主体的情感立场悄然介入,影响着新闻内容的真实客观。
困境二:算法不透明,个人数据隐私屡遭侵犯。算法设计依托的是机器自主学习技术,从数据输入、数据产品输出的流程来看,新闻内容生产流程被纳入人类无法识别的“生产黑箱”。算法新闻最重要的伦理问题是利益链条的“数据共享”,在万物互联的媒介生态下,个人数据隐私保护只是纸上谈兵,用户的年龄、性别、工作、爱好等信息会被精确记录。
困境三:责任归属不明确,问责机制不完善。人工智能创作既不是作者主体基于情感而进行的个人创作,也不是简单的复制粘贴,而是在数据分析和套用模板的基础上产生的具有较大重复性的机器作品。作品创作上既缺乏知识生产的独创性,也涉及创作过程中产生的版权侵权问题。在快速发展的智能新闻生产领域,尚未形成可溯源的、完善的新闻问责机制,一旦发生失范现象,很难进行追责。
困境四:内容生产同质化,报道模式刻板单一。由网络过滤器通过探寻受众兴趣,对用户进行精准画像后产生的信息推送,在信息传输窄化的过程中,单一的分发模式,同质化的信息重构会把受众禁锢在“牢固的茧房”之中。所带来的圈层固化和群体极化现象,影响着受众个体的媒介素养以及公众的价值认知。同质化内容的覆盖及单一报道模式的裹挟,阻碍了公共多元化信息的传播。
困境五:算法歧视视域下的权利与权力冲突。算法歧视指计算机系统可以有序地、不公平地歧视某些个人或群体,使之有利于他人。歧视类型主要分为设计者偏见型、数据瑕疵型、技术缺陷型以及经济利益驱动型,特别是在涉及政治元素的新闻报道中算法歧视显著,具体表现为文化偏见、技术偏见、突发偏见应用于算法程序的设计、重构及补充。在新闻生产中,新闻传媒业的“瞭望者”身份被算法歧视剥夺,而机器深度学习的异化也造成了多元参与者的权利与权力的冲突。如雅虎旗下的Flickr 将黑人程序员照片打上“猿猴”的标签进行有色人种的歧视;微软公司AI 聊天机器人Tay 将脏话与种族歧视的思想输入进了学习程序;Facebook 利用爬虫技术收集用户数据并通过算法进行“个性化塑造”,干预总统大选。
解决路径
面对人工智能技术参与新闻生产过程中产生的伦理问题,全球新闻业都在探寻解决的路径。
路径一:共筑数据安全壁垒,加强国际间合作,建构健康媒介生态。2018 年,Partnership on AI 宣布百度公司成为其中国籍的首位成员,百度将与Partnership on AI 中的其他成员一同致力于AI 研发标准和全球性AI 政策制定,让AI 技术健康发展[1]。在人工智能领域,中国政府及中国企业作为全球人工智能技术发展的引领开拓者,以切实有力的行动加强国际间关于伦理问题的合作,探索全球人工智能治理体系,共同促进全球人工智能伦理问题的解决,促进全球人工智能技术在各个领域的发展。
路径二:提升人工智能技术水平,制定智能生产原则。目前,智能算法在运用中还存在一些难以突破的瓶颈,例如数据的搜集、语义的理解、可靠性较差等,政府、企业机构和算法工程师需要在技术上进行更高层次的研发,提升人工智能深度学习的能力。同时,在基础建设、数据处理、硬件设施建设、服务和安全隐私等方面,加快制定人工智能发展的技术标准和规范体系,减少人工智能在实际运用中出现的伦理问题。
建立公约原则,规避伦理风险。(1)透明性原则是基础。透明则意味着公开,要增强透明性,首先就要公开生产和传播过程中的相关信息。接受社会监督,保证信息的可追溯性,具体体现为:在文章显眼的地方标注机器人生产;表明涉及和传播的算法工程师和公司名称;如果涉及审核和监督过程,还要标记审核人员的姓名,保证新闻生产的可溯源性和可追责性。(2)知情同意原则是前提。人工智能在新闻分发阶段应用最高频的就是个性化的智能分发,呈现受众精准画像的千人千面分发,此举不可避免地会涉及对用户隐私数据的搜集和使用,例如用户的年龄、性别、爱好、近期点击浏览的内容等。因此,要做到让受众知情同意,并可以随时终止对其数据的抓取。(3)风险可控原则是关键。对于新技术的发展和使用都要在认知其优劣的基础上进行,首先,应谨慎选择报道的范围和领域。其次,要精准地选择数据源,合理规范处理数据源。在选择数据源时,一方面要保证其来源的合法性,不得以侵犯他人隐私为由获得数据;另一方面要保证数据源的完整性和真实性,当数据源虚假或片面时,基于数据库所产生的新闻也会出现虚假和片面的情况。(4)纠察更正原则是保障。在传统新闻生产过程中,严格的编审制度和固定的分发流程是对信息高质量的保障,对于不慎出现的失实及失误做出更正和解释是新闻媒体应尽的义务,真实是新闻的生命,智能新闻在生产的过程中也必须坚守这一原则。由于智能化新闻生产的快速性和海量性,对于每一篇新闻进行逐字逐句的内容核实难度较大,因此我们必须有选择性地对内容进行纠察,如涉及个人隐私的、关系到重大社会利益的信息必须进行核实之后再发布,如在新闻发布后发现该内容出现问题也必须在第一时间进行更正,并且要保证将修改之后的信息通过原渠道方式传送给受众。各大新媒体平台要设置内容监督和举报机制,通过广大用户的监督来及时发现错误,以保证在最大程度上减少错误信息带来的不利影响。
路径三:加强新闻从业人员的规范化培养,增强社会治理参与的主体意识。算法新闻是新闻生产的工具和手段,不具备传统新闻生产的自主性和自由性,智能新闻是机器按照人的主体意愿生产出来的内容产品,人机协同的核心依然体现人的主观性。所以,在新闻生产的具体的实践中,加强算法工程师、媒体经理人、新闻从业者等人才的规范化培养,增强社会治理的责任意识,是突破伦理困境的必由之路。(1)加强专业领域的复合型人才培养。重视培养和输出具备交叉学科背景、技术实践能力的复合型人工智能人才。(2)重视从业者的职业道德提升培养。重点立足于新型智能新闻行业的政策法规、公序良俗。(3)贯彻共建共治共享理念及社会治理参与的主体意识。提升媒体从业者的社会责任感、社会参与感,明确其媒介生态构建的角色身份及社会治理参与的主体地位。
路径四:逐步建构健康合理的数据法律环境。在人工智能飞速发展的时代,法律呈现出滞后性,国际社会要合作建构合理的国际数据法律环境,为信息的健康生产传播、媒介健康生态的建构保驾护航。
针对数据隐私和数据滥用的问题,欧盟早在1995 年就在相关数据保护法律中提出了“被遗忘权”[2]的概念,2012 年通过“冈萨雷斯诉谷歌案”确认了这一法律制度。美国在2015 年也设立了“橡皮擦”法案,来确保未成年人的信息受到保护。中国在此基础之上探讨“被遗忘权”的本土化问题,学术界也表达了认可的态度。国际上许多国家已经提出人工智能领域涉及算法伦理规制的倡议,前有阿西洛马人工智能原则,后有美国计算机协会提出的算法透明与追责原则。2018 年5 月生效的欧盟《通用数据保护条例》给予公众最大限度的隐私数据保护。2019 年中国政府提出了“六大政策”推动新一代人工智能的发展,加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架[3]。在欧洲宪法中,当个人资料“被收集或以其他方式处理”时,便会触发保护资料法例。在荷兰,对自愿参与在线个性化服务的研究必须遵守相关的法律和道德框架。
总之,随着人工智能的快速发展和落地应用,人工智能技术的安全性已经成为全球各国共同面临的问题,世界各国应从伦理道德合作研究、技术标准制定、构建健康的法律环境等方面加强国际间的合作,共同面对这一新技术带来的新问题,为人工智能的安全应用保驾护航。