APP下载

关于人工智能时代新闻伦理与法规的思考

2018-01-31许向东

人民论坛·学术前沿 2018年24期
关键词:新闻传播数据保护人工智能

许向东

【关键词】人工智能  新闻传播  新闻伦理与法规  数据保护

【中图分类号】TU984.2                        【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2018.24.006

人工智能是什么?它会如何发展?它会给我们的生活、工作带来哪些影响?由于学科领域的不同,关于其定义和边界很难形成共识。人工智能对传媒业的影响,包括如何提高新闻生产的效率,是否对新闻从业者造成职业压力,以及是否会对新闻伦理与法规产生冲击等,已经成为新闻传播领域的关注点。

人工智能引发了新闻伦理与法规的新问题

在传统媒体时代,传媒业相互竞争、追逐利润,引发了诸如虚假新闻、有偿新闻、媒体审判、新闻侵权等违背新闻伦理与法规的现象。当前,人工智能技术逐渐渗透到新闻产品的生产、传播过程中,在实现精准推送、高效生产的同时,也带来了新的伦理与法规问题。

数据的非法采集和过度分析。数据是人工智能时代的重要资源,拥有足够体量的数据是进行数据分析、深度挖掘的前提。因此,为了拥有大量的数据,数据的采集范围日渐广泛,采集方式也日渐隐蔽,无形中就增加了个人数据被非法收集和过度分析的风险。

信息剧增时代是一个生产大量数据和消费大量数据的时代,人们日益繁杂的社会活动在不断地产生着不可计量的数据。从所有权的角度来看,依据法律,每个人不仅拥有个人数据的所有权,而且有权利知道是哪些机构在收集自己的数据、收集了哪些数据、被收集的数据将用于何处,等等。如果在未告知对方的情况下收集个人数据,这就是一种违背职业伦理和相关法规的行为。

当前,社交媒体的普及和大数据分析技术的不断升级,不仅使得技术人员能够从看似没有价值的事物中提取信息,将其转化成有用的数据,而且也为大数据企业深入分析数据、找到数据之间的关联性提供了便利。一组孤立的、零散的数据也许不具备较高的价值,但是,如果与其他组数据放在一起考虑,发现其中的相关关系以及相关关系的强弱,将有助于我们比以往更容易、更清晰地分析事物,尤其是在发现商业价值,以及预测某类事物的发展趋势方面。“互联网+”为创造新的商业模式开辟了思路,而大数据分析技术则为实现商业价值奠定了技术基础。当前,为建设一个透明、高效的服务型政府,政府部门在逐渐开放数据库,一些网站尤其是社交媒体平台也不同程度地开放了用户的实时信息,这就为个别大数据商业机构提供了抓取和挖掘数据的机会。当数据(尤其是包含了用户个人的经济状况、社交范围的数据)间的关系被建立起来,这些数据越是被深度挖掘,其商业价值就越大。在传统媒体主导的时代,受众的注意力是最值钱的,而现在则发生了根本性变化,受众的透明度——所留下的各种行为痕迹(数据)更值钱、更好卖。因此,建立数据采集、数据分析的实施规则,有助于消除个人数据的违规采集和过度挖掘现象。

算法偏见和算法透明度。按照常理,算法作为一种数学表达,理应抛弃了人类在信息传播中具有的猎奇、歧视、偏见等不良因素,但现实并非如此。所谓的算法偏见(algorithmic bias),是指在看似客观中立的算法程序的研发中,其实带有研发人员的偏见、歧视等,或者所采用的数据带有偏见或歧视。[1]算法是通过数据运算来预测未来的,运算过程将涉及数据的质量、研发人员对数据的筛选等因素。其中,数据的体量、准确性、适用范围等直接关系到算法决策和运算的结果。在研发人工智能系统的过程中,研发人员所使用的训练数据的分布状况,以及对算法进行应力测试的过程,都会影响人工智能的决策与选择,使得各式各样的偏见、歧视被技术客观性的外衣包裹。另外,算法和数据驱动产品总是会反映其建造者的设计选择,如若程序员们本身带有偏见,那么编写出来的程序带有偏见就不足为奇了。[2]当前,算法偏见主要有如下几种:一是“互动偏见”,指在算法系统与用户互动过程中使算法产生的偏见,当机器被设定为向周围环境学习时,它们不能决定要保留或者丢弃哪些数据,也无法判断哪些数据是对的或错的;二是“潜意识偏见”,指算法将错误的观念与种族和性别等因素连结起来;三是“选择偏见”,指受数据影响的算法,导致过于放大某一族群或群组,从而使该算法对其有利,而代价是牺牲其他群体;四是“数据导向的偏见”,指用来训练算法的原始数据已经存在偏见了,机器不会质疑所接收到的数据,只是单纯地寻找其中的模式。如果数据一开始就被扭曲,那么其输出的结果,也将会反映这一点。[3]

算法的透明度问题本质上也是新闻生产的透明度问题。传统的新闻生产流程较为简单,从素材的采集加工,到编辑整合,再到播发,公众多多少少都有所了解。而披著“高科技”外衣的“算法”则让人感觉有些“高深莫测”了。诸如“是哪些人研发了这个算法”“这个算法的运算目的是什么”“谁对运算的结果负责”以及“设计推荐算法需要参考哪些指标”等类似的问题在等待着回答,但遗憾的是,算法自身的复杂性再加上无法洞悉的“算法黑箱”的存在,增加了公众对算法的设计原理、运行逻辑的理解难度。算法的透明度不仅牵涉新闻生产流程的“客观性”“公平公正”,而且关联着公众对新闻传媒、新闻产品质量的信任,更使得“算法”的透明度问题日益被人们关注。因此,提升算法透明度的意义非同寻常,特别是随着算法在新闻生产、新闻推送的应用日渐增多,“透明度”越来越多地被用作合法化新闻的规范基础,透明度不仅可以对新闻算法的功能进行有价值的检查,还可以提高算法对道德、文化和认识论的影响力。[4]

对隐私权与数据保护的忧虑。随着人们与外界交往活动的增加,以及记录、存储和传播信息的技术日益完善,大量涉及公众个人的数据被卷入了信息洪流之中,人们掌控自己信息的权利和能力被削弱,变得愈加透明,正如麻省理工学院的研究人员所发现的,只需掌握四个时空移动数据,就可以辨识出95%的个人身份信息。[5]大数据时代使得隐私被侵犯的概率以及善后的难度成倍增加,一旦造成伤害,就无法补救,即使你删除了原文,无数影像文件依然存在。[6]

近几年,推荐算法是国内外大多数新闻APP和社交媒体平台使用的主流,通过机器学习持续关注用户的阅读数据,来提升新闻生产的个性化和新闻推送的准确率。推荐算法的实质就是大数据分析。通过抓取和分析用户的年龄、性别、职业、文化水平、收入水平等人文信息,以及阅读时的接触时长、接触频率、接触动机等行为信息,将用户的零散数据汇聚在一起,运用算法实现用户的精准画像,推测出用户的个人特征、阅读偏好等。

我们在使用互联网的时候经常遇到“授权提示”,通过授权我们获取了某些操作上的便捷和高效,实质上,这是用户在“被愿意”的情况下,通过“让渡”隐私来换取便利。2013年以来,美国传媒行业开始利用传感器采集数据并将之用于新闻报道。安装在公共场所的各类传感器可以24小时不间断地采集人们的信息,此外,运动手环、智能手机、电子阅读器等配置的一些软件也可以随时随地采集使用者的个性化数据。在各式各样的传感设备面前,人们几乎无隐私可言,而且无法知晓自身的哪些信息被采集了,被采集的数据又是如何被使用的。当我们在社会活动中产生的信息,尤其是一些较为敏感的数据,在不知不觉地被收集、被分析,甚至被用于商业目的时,或者原本属于个人的私密空间被他人“窥视”和“分享”时,这就预示着人们在保护个人隐私、控制和管理个人数据上已经处于弱势地位了。

如何应对人工智能技术对新闻传播的负面影响

技术红利与技术缺陷是相伴相生的,作为一个还不完善的新生事物,人工智能不可避免会产生一些新闻伦理与法规方面的问题。分析问题的根源以规避负面影响的产生,将有助于人工智能最大化地发挥自身价值。

法规建设层面。伦理是人类文明的朝阳,法规是人类文明的落日,是规范社会行为时不得已而为之的他律。第一部个人数据保护法,是1973年的《瑞典数据法》。而美国则是第一个明确提出保护隐私权,并在1974年通过了《隐私法》的国家,1988年制定了《电脑匹配与隐私权法》,1998年美国国会又通过了《网上儿童隐私权保护法》。为解决互联网时代对用户个人数据的收集、使用等问题,1996年欧盟通过了《关于个人数据处理保护与自由流动指令》,2016年又制定了《通用数据保护条例》(GDPR),并于2018年5月25日在欧盟28个成员国生效。

为了加强对电信、金融、医疗等服务机构中使用个人数据信息的管理,2013年2月,我国开始实施《信息安全技术公共及商用服务信息系统个人信息保护指南》,该标准的显著特点是将个人信息划分为一般信息和敏感信息两个类别,个人信息的使用前提是知情同意,并且要求在被使用后予以删除等。

2017年6月1日开始施行的《网络安全法》也有关于保护公民合法权益的规定:网络运营者应当对其收集的用户信息严格保密;网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意;网络运营者不得泄露、篡改、毁损其收集的个人信息;未经被收集者同意,不得向他人提供个人信息。[7]为了最终将个人信息的控制权归还给用户本人,各国相继出台的个人数据保护法规主要有以下几个关键点:一是采集数据信息时,必须得到用户本人的知情同意;二是将知情程度延展到数据抓取的方法、数据使用目的、是否同意再次出让;三是用户有权随时查看、更正和删除数据,发现错误数据时,有权要求修改;四是建立投诉、举报制度,并制定了明确的处罚条例。

长期以来,法律的制定与实施往往滞后于新技术、新实践的发展。当前,明确责任的归属问题以及由此衍生的人们对人工智能的信任问题,已经成为影响人工智能技术发展的瓶颈。人工智能在众多领域的应用,尤其是无人驾驶汽车、医疗机器人等的诞生,加速了构建适用于人工智能的法律体系的步伐。目前,在缺乏参照系的情况下,对于新出现的人工智能案例,可以适用现有法律(如侵犯隐私、一般的侵权等)[8],但这仅仅是权宜之计,作出前瞻性的立法布局,在恰当的时候制定适用于人工智能的法律法规体系,从根本上解决问题,则是各国在人工智能时代的最佳应对策略。

媒体责任层面。快速与个性化是人工智能应用于传媒业的最显著的特征。人工智能对新闻价值的判别主要基于算法,致使其在生产和推送中更侧重于那些公众“欲知而未知”的内容,而那些涉及公共利益,包含一定政策性、知识性的内容,即广大公众“应知而未知”的内容,则较难纳入生产和推送的范围。算法的存在价值就是帮助人们作出选择,而选择本身就意味着放弃。如果公众长期受到智能生产、智能排序和智能推荐的影响,接触到和所选择的仅仅是基于个人偏好或者智能软件所推送的新闻信息,就难免限制公众的视野,使公众处于信息沟通与交流的孤岛之中。由此所形成“信息茧房”,对个体而言,主要影响的是公众个人社会化的过程与结果,但對整个社会而言,就会减少不同声音之间的碰撞、不同观点之间的交锋,社会舆论趋于单一和一致化。在多元的社会舆论环境中求得动态的平衡,才是社会和谐发展的正常过程。因此,新闻传媒不能以人工智能有助于为自身的发展带来转机为借口,而忽略了新闻传播的多样性和多元化。

当前,人工智能技术使得新闻产品的商业属性被突出强调,原来的新闻“5W”要素有了新的解读,变成了:谁在乎;他们为此想付出什么;媒体和广告商在哪里可以找到这些人;什么时候提供这些新闻才是有利可图的;为什么这个可以赚钱。[9]这种转变预示着以消费者为导向的商业模式加剧了对传统新闻生产模式的侵蚀,新闻传播的公共服务性再次被削弱。

在我国,新闻传媒不仅是信息传播渠道,还担负着宣导抚慰的职责,需要与政府良性互动,进而发挥协调利益、疏导矛盾的功能。目前,人工智能技术还不具备从宏观上透彻地了解社会现状与发展进程的能力,也无法在新闻的生产与发布上体现大局意识。在把尊重公众的知情权、回应公众的关切与政府当前的工作重心结合起来,把服务、满足公众需求与教育引导公众、提高公众的素养结合起来等方面,人工智能还有很长的路要走。当在新闻信息传播中出现伦理失范和违反法律法规时,“这是算法的结果”和“这是机器生成的”不能成为传媒推卸责任的“挡箭牌”。

技术完善层面。当前,加强个人隐私和数据保护是较为紧迫的任务,切实可行的方法有研发“匿名化处理”技术和推广具有个人数据保护功能的软件产品。匿名化处理是指互联网公司或数据机构在实施数据分析之前,移除所采集的数据中可识别个人信息的部分,使数据主体不再被识别出来。这种做法既可以降低暴露个人敏感信息的风险,还有助于保证用户对大数据技术和人工智能的信任度。

国外互联网市场上所研发的有助于保护个人数据隐私的产品和服务主要有两类:一是协助加密、反追踪或者销毁个人数据的软件,二是去掉了数据搜集功能的搜索引擎。用户的网上信息对于商业公司,尤其是对于在线广告公司有着极高的商业价值。Do Not Track(Dnt)是一款杜绝在线跟踪用户行为的功能。如在谷歌、微软、火狐等具有 “Do not track” 功能的浏览器中就有一个“发送不跟踪”的按钮,网民开启这项功能之后,就能够避免自己的网上行为被追踪,从而避免隐私泄露。传统的搜索引擎为了提高效率,都会对用户数据进行详尽地收集和分析,从伦理法规的角度看这是一种侵犯用户隐私的行为。近年国外开发并推行的Duck Duck Go就是一款不监控用户搜索行为、不记录用户搜索内容的互联网搜索引擎,其最大特色就是能够有效保护用户的隐私。

随着人工智能技术的日渐成熟,越来越多的规则被程序员以代码的形式写进了算法程序。算法、代码开始影响各种决策,从技术层面或者说在机器学习过程中嵌入“机会平等”的概念、构建技术公平原则,在人工智能日渐代替人类作出抉择的时代显得非常重要。国外已经有研究团队依据约翰·罗尔斯的公平技术定义及其“机会公平平等”理论,引入了“歧视指数”的概念,提出了设计“公平”算法的构想。[10]

技术引发的新闻伦理和法规问题不能成为否定技术本身的理由,相反的,我们应当有针对性地剖析问题的根源,纠正并克服人工智能技术在伦理法规上的失范,多渠道、全方位地探索出有效的路径,保证人工智能技术在新闻传播领域的良性发展。

在人机协同中实现技术理性与价值理性的交融

新闻传媒业的发展可以说与传播技术的发展是同步的,新技术不仅改变了人们的生活状态,也推动了传媒业的变革与发展。从媒介技术的角度而言,就是解决如何以最方便、最灵活、最快捷、最经济、最有效的手段和方法提高信息生产与传播效率问题,它的内在逻辑是技术理性或工具理性。[11]但是,新闻传播是人的社会实践活动,仅靠技术理性的驱动是不够的,需要将追求效果的最大化与关注人的情感和精神价值结合起来。

人机共生、人机协同是传媒业的发展趋势。计算机科学家高德纳曾经评价人工智能:人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其他动物不需要思考就能完成的事情上,还差得很远。[12]人工智能尽管在新闻报道的人文情怀、创意构思上还有不尽如人意的地方,但也具备了高效的生产、精准的推送,以及渠道的拓展等人力所无法比肩的优势。结合3D成像技术、语音识别技术等,如今人工智能已经开始扮演传播者“人”的身份,并且进入现实的新闻传播活动之中。但是,事实告诉我们,新闻传播是一种极富专业性和“创意”的智力活动,同时也是涉及政治思想、文化宗教等意识形态领域的高级精神劳动,因此,扬长避短是比较明智的选择,把机器或者程序能做的交给机器和程序,从而把人力解放出来,去从事具有创新要求和需要发挥想象力的工作,这是自工业革命以来自动化革命的基本理念。[13]

面对人工智能技术对传媒领域的逐渐渗透,新闻从业者将与人工智能进行科学的分工与互补性的协作,在“人机共生”的环境中各展所长,媒体通过算法来发现新闻线索、整理分析数据以及撰写初稿,新闻从业者则将精力用于对重要人物的采访、稿件内容的深化等能够施展人类才华、体现职业理想和人文情懷的地方。从传媒业的整体布局来看,不仅要构建“人机协同”的生产模式,更要鼓励二者在协同中实现创新,这或许是传媒业在人工智能时代的最佳选择。

价值理性与技术理性的相互协调。人机协同不仅是指新闻生产中新闻从业者与算法系统的相互配合,更指在新闻传播中,价值理性和技术理性之间的平衡。法兰克福学派的代表人物赫伯特·马尔库塞认为,技术作为一种生产方式,……同时也是组织和维持(或改变)社会关系的一种方式,它体现了主导性的思考和行为模式,是控制和支配的工具。[14]以前主要靠暴力来统治社会,而在现代社会中,技术成为社会控制的新形式,技术理性已经成为一种意识形态来统治和控制社会。技术理性强调的是通过技术来推动社会的发展,改善人们的生活,技术有着显著的实用性、目的性,其效果往往是立竿见影,容易被广大公众亲身感受到,在技术推崇备至的情况下,技术理性引导着人们更关心利益的获取和物的追求,致使人们的自主意识和独立判断能力在悄无声息中被消解。

相比于技术理性,价值理性是一种以人为中心的理性,它不以功利为最高目的,其目标是推护人的尊严、提升人的价值、满足人的长远需要、促进人的全面发展和完善。价值理性解决的是“做什么”的问题,为实践主体指明了方向,至于“如何做”的问题则主要由工具理性来解决。技术理性虽然增强了人的生存和发展能力,带来了物质的丰富和文化的繁荣,但是随着技术理性被无限放大,价值理性的发挥受到了挤压和限制。在新闻传播活动中,既要重视节约生产成本、提高传播效率,同时也要考虑新闻传媒如何更好地发挥引领舆论、协调利益、疏导心理等充满人文情怀的功能。人机交互、人机协同本质上是在强调人的主体性,在人工智能中融入人的价值观和人文情怀,通过提升人工智能的价值理性,将价值理性和工具理性统一于新闻实践中。

结语

人工智能为新闻传媒业的发展开启了一扇窗户,在改变着新闻信息的生产和传播方式的同时,也需要原有的新闻伦理与法规作出相应的调适。因人工智能技术应用于传媒领域而引发问题不是技术发展的失败,而是对技术理性与价值理性能否相互协调、相互融合的考验,也是对新闻伦理法规开放性的考验。因此,考察人工智能技术在新闻传播领域的应用,以及由此带来的问题,不仅拓展了新闻伦理与法规的研究视野,更有助于指导不断变革中的新闻实践。

(本文系中国人民大学科学研究基金[中央高校基本科研业务费专项资金资助]项目“数据新闻可视化的产品评价指标体系研究”的研究成果,项目编号:17XNL003)

注释

[1]《算法偏见是如何产生的?》,新华网,2018年3月22日,http://xw.xinhuanet.com/news/detail/779138/。

[2]Misty:《致程序员:算法为何带有偏见?》,雷锋网,2016年6月27日,https://www.leiphone.com/news/201606/tnedws8svgubagll.html。

[3]Francisco Socal:《人工智能算法偏见的根源在人类》,电子工程专辑EE Times China网,2018年3月22日,https://www.eet-china.com/news/201803220600.html。

[4]Matt Carlson, "Automating judgment? Algorithmic judgment, news knowledge, and journalistic professionalism", New Media & Society, 2018, Vol. 20(5) , pp. 1755-1772.

[5]Yves-Alexandre de Montijoye, et al., "Unique in the Crowd: The Privacy Bounds of Human Mobility", Scientific Reports, 25 March, 2013, www.nature.com/srep/2013/130325/srep01376/full/ srep01376.html.

[6]彭增军:《新闻业的救赎:数字时代新闻生产的16个关键问题》,北京:中国人民大学出版社,2018年,第119~120页。

[7]《中华人民共和国网络安全法》,中国人大网,2016年11月7日,http://www.npc.gov.cn/npc/xinwen/2016-11/07/content_2001605.htm。

[8]乔路、白雪:《人工智能的法律未来》,北京:知识产权出版社,2018年,第32頁。

[9]彭增军:《新闻业的救赎:数字时代新闻生产的16个关键问题》,北京:中国人民大学出版社,2018年,第141页。

[10]Matthew Joseph, Michael Kearns, Jamie Morgenstern, Seth Neel, Aaron Roth, Rawlsian Fairness for Machine Learning, Submitted on 29 October 2016 (v1), revised 1 November 2016 (this version, v2), latest version 29 June 2017.

[11]郭庆光:《传播学教程》(第二版),北京:中国人民大学出版社,2011年,第116页。

[12]王天一:《人工智能革命:历史、当下与未来》,北京时代华文书局,2017年,第43页。

[13]金兼斌:《机器新闻写作:一场正在发生的革命》,《新闻与写作》,2014年第9期。

[14]Herbert Marcuse, "Some Social Implications of Modern Technology", Studies in Philosophy & Social Science, 1941, pp. 138-139.

责 编/马冰莹

猜你喜欢

新闻传播数据保护人工智能
人工智能与就业
TPP生物药品数据保护条款研究
欧盟数据保护立法改革之发展趋势分析
欧盟《一般数据保护条例》新规则评析
药品试验数据保护对完善中药品种保护制度的启示