大数据技术伦理责任研究
2016-11-30汪一舟
汪一舟
中国矿业大学马克思主义学院,江苏徐州 221006
大数据技术伦理责任研究
汪一舟
中国矿业大学马克思主义学院,江苏徐州 221006
随着社交网络、物联网、云计算等技术的广泛运用与发展,当今社会已进入了数据大爆炸的时代。但是大数据技术带来的风险与收益一样让人们为之惊讶,这就需要我们对其进行全面的评估预测,考量大数据技术可能会带来的各种风险以及对于传统伦理观念将会形成的挑战,厘清各方面的责任。从而使人民可以普遍了解到自己在这个大数据社会中扮演的角色以及承担的义务,同时保证风险始终可控且不会限制技术的推进发展,使得大数据技术在工业4.0时代中可以充分发挥其重要的作用。
大数据技术;伦理风险;责任
1 大数据技术的发展与应用
进入21世纪以来,信息技术飞速发展,尤其是近年来移动互联网与智能手机的广泛运用,数据的激增带来了商业、生活、思维方式的转变,大数据技术已悄然引领着一场技术革命。“2014年,国际数据公司推算出全世界数据总量有4.4泽字节之多,即4.4万亿兆字节。”[1]“数据,特别是大数据被看作是创新型增值的基础,这么来看它们是新经济模式的原材料。”[2]由此可见,大数据中的这个“大”由此就被赋予了双重的含义:一是容量大,二是价值大。容量大表现在过去的两年所产生的数据是人类历史上数据总量的90%,而价值大主要体现在大数据技术的实际运用中。中国大数据研究“第一人”涂子沛先生把大数据的技术支撑分为3个方面:摩尔定律、社交媒体和数据分析。摩尔定律使得当下计算机的存储、运算能力每过18~24个月就会翻一倍,社交媒体的广泛运用则产生了巨大的数据源,所以摩尔定律和社交媒体将数据变得无比巨大。数据分析的方法就是将潜藏于数据之中的价值充分挖掘出来。它不仅为各个运用大数据技术的公司来了巨大收益,也切实地改变我们的生活。英国学者维克托认为:“大数据开启了一次重大的时代转型。就像望远镜让我们能够感受宇宙,显微镜让我们能够观测微生物一样,大数据正在改变我们的生活以及理解世界的方式,成为新发明和新服务的源泉,而更多的改变正蓄势待发。”[3]
那么大数据技术对我们的价值体现在哪里呢?总结来说就是数据创新和数据预测。大数据技术运用了近乎总量的数据,分析数据间的相关性,充分预测了元数据的各种可能性变化,使数据的二次利用成为发掘价值的宝藏,“数据就像一个神奇的钻石矿,当它的首要价值被被发掘后仍能不断给予。它的真实价值就像漂浮在海洋中的冰山,第一眼只能看到冰山的一角,而绝大部分都隐藏在表面之下。”[4]例如,2009年谷歌曾运用海量的搜索数据成功预测了美国禽流感的爆发地区。同样,亚马逊也可以通过我们的浏览记录分析出每个人的喜好,并个性化的为每个人进行推送购物信息。大数据技术的运用,让那些拥有数据并懂得分析数据的企业获得了类似占卜未来的能力,也让每一个互联网世界的居民享受到更加便捷、廉价的服务。一切看上去似乎都是如此的美好,技术发展让生活更舒适,然而真的是这样吗?问题远非如此简单。
2 大数据技术的伦理困境
刚刚过去的20世纪的经验告诉我们,技术是把双刃剑,任何人和组织都不敢保证说自己发明出来的技术对于这个社会是完全有益的。尤其是核技术和生物技术在实际运用中产生的各种负面影响,已经给整个人类社会敲响了警钟。通常整个社会制度和人的伦理观念在技术拉动社会的进程中会显示出滞后的现象,并会与当前的各种技术(权力)进行艰苦卓绝的斗争。马尔库塞在批判20世纪大工业社会时就曾提到过这其中的关系,“技术的进步扩展到整个统治和协调制度,创造出种种生活(和权力)形式,这些生活形式似乎调和着反对这一制度的各种势力,并击败和拒斥以摆脱劳役和统治、获得自由的历史前景的名义而提出的所有抗议。”[5]显然,马尔库塞认为技术与权力有着某种程度上的契合与暧昧,因此传统社会又会对这种技术的发展也就是权力的组织和制度运行模式的改变生成巨大的反抗。在这个问题上,哈贝马斯对技术的支持表现的更为直率,“社会的不断‘合理化’是同科学进步的制度化联系在一起的。当着技术和科学渗透到社会的各种制度从而是各种制度本身发生变化的时候,旧的合法性也就失去了它的效力。”[6]作为当代的哲学大师,哈贝马斯的观点值得深思,他要求各种制度法律伦理观念的建设要紧跟着技术的发展,而不是限制技术发展来满足适应当下已经过时的一切。由此可见,技术与伦理的关系论证早已有之,而且学界也对其进行过精确的评估。卡尔•米切姆总结对于技术伦理问题的讨论可以分成3种,即自然法理论、功利主义理论和义务论理论。其中功利主义理论是最为常用的理论。“对一项新技术或一项现存技术的一个主要应用进行评估时,首先要确定的是它涉及什么样的‘善’和‘危害’……当前,最普遍的方法就是进行成本—收益分析,或者在对人类生活和健康有潜在危害的特殊环境下,进行风险—收益分析。”[7]风险—收益分析是功利主义理论应用的经典模式,那么对于技术风险的分析便是大数据技术伦理责任研究的切入点。
我们已经知道技术与伦理的关系,那么大数据技术的技术风险以及造成的伦理问题具体表现在哪些方面呢?学界目前对此问题的总结为3点:一是隐私的泄露;二是社会公平的破坏;三是人的进一步异化。“大数据时代,前所未有的数据挖掘、数据预测以及更全面的监控,造就了更具可能性的数据,使隐私控制更加困难。”[8]东北大学的薛孚博士的论述也是学界最普遍的观点。整个社会都将处于“第三只眼”的监控之下,人们的自由意志受到了严重威胁。例如,当下通过各种社交媒体便可预测出一个人的行为倾向,如果这种方法被政府执法部门广泛运用,那么所有人今后都可能会为自己拥有某种可怕的想法而付出“代价”,“人们不是因为所做而受到惩罚,而是因为将做,即使他们事实上并没有犯罪。”[9]在社会公共服务领域,个人隐私的泄露会增强权力的控制,在市场中,每个人的隐私就变成了巨大的商业利益,商家在合理的分析了每位消费者的消费习惯以及消费能力过后,即可对每位消费者进行个性化服务,实际上所谓的“个性化服务”也就是商家掌握的对于消费者的“个性化控制”。大数据技术让所有可以掌握大数据的组织都拥有了对于每个自由人前所未有的预测与控制能力。而这恰恰是大数据技术为人诟病的重要原因。
至于大数据技术如何破坏社会的公平,则体现在其形成的“数字鸿沟”。所谓的“数字鸿沟是指一种‘技术鸿沟’(technological divide),即先进技术的成果不能为人公平分享,于是造成‘富者越富,穷者越穷’的情况。这是一个公正问题。数字鸿沟的概念涉及在信息技术及与其有关的服务、通讯和信息可及方而的失衡关系,在全球或各国贫富之间、男女之间、受教育与未受教育之间信息可及的不平等和不公平。”[10]在中国社会科学院的邱仁宗研究员看来,大数据技术正是造成今后社会贫富分化加剧的重要原因。截至2015年7月我国网民人数已达到6.88亿,或许在别国看来这是一个庞大的数字,但是我们不禁要问还有7亿多的人为何没有上网?他们无法享受互联网带来的信息红利,在大数据时代连成为数据的机会都没取得,自然也不会有任何的互联网思维、大数据意识。这些人受到了信息技术的“歧视”而成为了信息贫民。而且信息贫民和信息富民之间的差异正逐步演化成了物质贫富的差异,掌握信息技术与数据的人们较那些对信息技术一窍不通的人来说更容易在社会及市场竞争中取得优势,随之而来的就是贫富分化因大数据技术的产生变得更加显著。另外,资本和技术天然的紧密的捆绑在一起,无不使人们对于技术的阶级属性产生了怀疑,尤其是大数据技术现在普遍掌握在互联网巨头的手中,它们拥有了信息控制权,也拥有了划分信息富民和信息贫民的能力,更进一步讲就是拥有了分配财富的能力。大数据技术在当下的资本分配中正扮演着“话事人”的角色。
“异化劳动”是马克思在《1844年经济学哲学手稿》中提出的重要命题,马克思对“异化劳动”的4个方面进行了阐述,其中“(3)人的类本质,无论是自然界,还是人的精神的类能力,都变成了对人来说是异己的本质,变成了维持他的个人生存的手段。”[11]对于技术的研发和应用的过程,一般来说,我们也把这种行为当成是一种劳动,那么马克思的“异化劳动”理论也就是对于马克思技术异化观的阐释。虽然马克思没有对“技术异化”理论进行过专门详细的表述,但是而后的法兰克福学派对于技术异化的批判可谓淋漓尽致。例如,马尔库塞指出“技术理性这个概念本身也许就是意识形态的。不仅技术的应用,而且技术本身就是(对自然和人的)统治—有计划的、科学的、可靠的、慎重的控制。”[12]由此可见,技术在马尔库塞看来是一种意识形态的体现,掌握技术的资本家同样在劳资关系中拥有绝对的话语权,并且在技术的帮助下逐渐的增强其能力。至于大数据技术体现的是怎样的意识形态尚需我们仔细的考察,但是现在毋庸置疑的是大数据技术掌握在政府和部分互联网寡头的手中,而且主要用于商业目的。那么我们是否可以姑且认为大数据技术已经部分的带有了资本主义的意识形态了呢?至少目前信息贫民和其没有任何关系。大数据技术无形的将人以群体的形式相异化,“信息贫民”和“信息富民”之间的异化加深以至于逐渐走向对立,两个群体也似乎是生活在两个不同世界的人类。此外,即使是生活在信息世界的人,也受到了大数据技术的前所未有的影响,江西财经大学的陈仕伟教授认为“大数据技术作为一项综合性技术,毫无疑问也存在一定程度的异化。在一切皆可数据化的条件下。人的主体地位得到了前所未有的冲击。因为人本身也可数据化。”[13]不难理解,技术异化了人的类本质,大数据拥有着将一切量化的功能,那么大数据技术便是将人异化成了“数据人”。所以,在大数据技术控制下的人与其人的类本质相异化,而在数据之外的“自然人”却会随着时代的发展逐步落后甚至被抛弃,他们与“数据人”相异化。由此,大数据技术让人与人、人与其本质相异化。
3 大数据技术的伦理责任
以上我们分析了大数据技术条件下带来价值以及技术风险,归根结底数据不过是我们一种度量的工具,既然是工具就得为为人所用,而不是反过来成为控制人的存在。技术与伦理的博弈一直是学界经久不衰的话题。同样随着大数据技术的兴起与运用,立即引起了国内外众多学者的注意,因此,提出了对于大数据技术的伦理风险的各种规制与防范的措施。“美国学者Kord Davis与Doug Patterson在其《大数据伦理学》中就提出,大数据是一种新的技术创新,任何技术创新都会给我们带来巨大的机遇,同时也会带来巨大的挑战,因此我们必须在创新与风险之间找到合适的平衡,并对大数据技术进行必要的伦理规制。”[14]对于隐私泄露的风险,南京信息工程大学的蒋洁副教授表示,“大数据预测伦理原则体系的完善还应当在行业自律的绩效测量与评价体系中增加相应伦理指标并健全激励机制,通过相关伦理规约培训向参与者清晰传达各项原则并提高其自觉遵循的能力,同时设置履行监督职责的伦理调查专员并建立匿名检举制度以避免不当行为进一步蔓延。”[15]而“数字鸿沟”造成的公平问题,有学者认为“一、政府推进数据公开;二、加快培养大数据人才;三、全民树立大数据思维”是当下极为重要的三件事。[16]至于大数据技术造成的人的异化,陈仕伟教授提出了如下5点建议,即“1.完善伦理制度;2.实现权责统一;3.促进利益相关者的道德自律;4.实现利益相关者的利益最大化;5.实现科技与人文的统一。”[17]不难看出,对于大数据技术造成的伦理问题,学界的普遍观点归纳一下就是3点:一是依靠政府加强监管能力;二是提高公众与企业伦理责任意识;三是创新、普及技术,消弭风险与不公。对于具体的大数据技术伦理问题,我们似乎是给出了确定的答案,那么从宏观的角度,又该如何探讨呢?我们知道讨论一个技术伦理问题时,考察“风险与收益”这种功利伦理学的手段是一种常用的方法,“简单说来,功利伦理学就是要实现功利(幸福)最大化,反过来就是实现伤害(不幸)最小化。显然,要达到这个目的,就不能仅仅从行为的目的出发,而应该从行为的结果出发,才能真正判断一个行为是否实现了功利最大化。并且功利最大化不是某一个人的功利最大化,而是‘每一个相关者’功利最大化。总体而言,功利伦理就是要坚持利益最大化。”[18]简单地说就是保证集体利益的最大化。固然这种实用主义的方法在实际运用中很是便宜,但是它并没有解决最核心和本质的伦理道德问题。中国人民大学的曹刚教授在他的《道德难题与程序正义》这本书中指出运用辩证的道德推理是解决道德难题的根本途径[19]。即我们需要从大数据技术普遍为人所接受的意见出发进行推理,找出大数据技术的普遍性规则和共识性前提,在程序规范的条件下予以实践检验。从当前民众最关心的隐私问题来看,大家普遍担心的是自己会时刻处于“第三只眼”的监控之下,“预测”变成了福柯所揭示的“规训的权力”[20],“层级监视”也演化为“全民监控”,由此权力在大数据技术的帮助下异化成了强大且无法约束的“利维坦”。笔者认为一味地相信政府会将所有事情处理好只不过是一种天真的表现,政府很多时候不是去解决问题而恰恰是问题的本身,好的制度也都是各方面理性充分制衡的结果。而且如果政府部分压根就没有责任的意识,任何好的建议最后也只会变成一纸空谈。
从目前的研究情况来看,学界提出了很多广泛笼统的应对策略,归根结底就是要努力提高各方面的伦理责任意识,让大数据技术始终在可控范围内。责任伦理的研究是技术伦理的重要研究范畴,汉斯•约纳斯教授提出我们应该有一种关于技术活动长远后果的预测科学,这是培养我们每个人责任意识的原则与方法,“一种关于人类和地球的可预测的未来处境的真理,那些第一位的哲学真理要对其作判断。那些判断将进而作用于今天的行为,通过长远的推断,那些未来处境就从已被辨别的趋势中显现出来,象它们肯定或可能的结果那样随之发生。这些(仍然是理论的)在事实王国中关于现实和可能的猜想知识就这样插入到伦理学原理的理想知识和政治学应用的实践知识中间,它必须着手这类假设性预测,预测人们不得不希望什么或害怕什么——即促进什么和预防什么。”[21]对于技术风险的合理预测也就成了我们的首要伦理责任。在上文中对于大数据技术的风险与隐患我们已经有了较为全面的预测,只是这预防的方式并非清晰明白。约纳斯教授提出了对于技术预测的一般性原则,即“永远不可把‘人类’的生存置于危险之中”,“至此我们终于发现了禁止某些技术‘试验’的原理,而决策规则—跟预善相比优先预恶—是先前论述过的这种原理的实际表达。因此这个使规则有效的伦理学公理如下:在行为有很大危险时,绝不可将作为整体的人类存在或本质当作赌注。”[22]我们每一个人都不可以把人类的命运当做赌注去博一个美好的技术未来,因为一旦这个技术走向了人类的反面并发展到了人类难以控制的地步,则我们输掉的不光是自己,还有子孙后代的利益。由此可见,技术在还没有完全被理解控制的情况下,每个技术关联者都有对其合理怀疑的责任与权力。一旦怀疑,则我们将有必要对其进行更为严苛及周密的预测、论证。在大数据技术的发展中,责任的观念如不能落实到每个人思想中,则其发展的越快越是危险的象征,犹如行驶在高速路上刹车突然失灵的汽车,作为驾驶者不应是想着照常或者加速行驶以便快速离开高速路,而是要减速慢行在安全区域内停车再去寻求帮助。所以,当大数据技术飞速前进之时,适时地减速检查是极为必要的。
4 结论
不得不说,人类历史上每一次的科技变革都会造成整个社会的大转型。工业革命将传统农业社会的经济基础连根拔起,广大的劳动力被迫从土地上解放出来,他们来到了城市走进了工厂,密集劳动造成的伦理问题极大的挑战了传统农业社会的道德底线,一切似乎都和以前不一样了。而后,随着各项制度、法律以及观念的深入发展,人民逐渐又建立起了一套新的伦理观。当下,大数据、云计算及人工智能等技术的快速发展,工业社会的根基也已是岌岌可危,我们又一次面临着“大洗牌”的格局。不同的是,工业社会用了一百年的时间来消解发展对整个人类社会所造成的阵痛,而当下我们所面临的情况确是爆炸似的发展速度,也许三五年的时间内我们的世界就将发生巨大的变化,但是我们没有更多的时间去适应这种变化所造成的影响。在笔者看来,只有紧跟时势,飞速的往前奔跑才不会被科技的洪流荡涤出时代的大潮。但是,即使是时代的“弄潮儿”,也要时刻不忘自己的责任与使命,不要轻易被技术蒙蔽了心智扰乱了思想,大数据技术只是我们人类的工具,我们决不允许它成为人控制人的“帮凶”甚或是成为异化于人类之外的人的“主人”。
[1]史蒂夫·洛尔.大数据主义[M].胡小锐,朱胜超,译.北京:中信出版社,2015:7.
[2]格哈德·鲍姆.作为下一次工业革命基础的创新[M]//乌尔里希·森德勒.工业4.0.邓敏,李现民,译.北京:机械工学出版社,2016:64-65.
[3]维克托·舍恩伯格,肯尼斯·库克耶.大数据时代[M].盛杨燕,周涛,译.杭州:浙江人民出版社,2013:1.
[4]维克托·舍恩伯格,肯尼斯·库克耶.大数据时代[M].盛杨燕,周涛,译.杭州:浙江人民出版社,2013:127.
[5]赫伯特·马尔库塞.单向度的人——发达工业社会意识形态研究[M].上海:上海译文出版社,2008:3.
[6]哈贝马斯.作为“意识形态”的技术与科学[M].上海:学林出版社,1999:38-39.
[7]费雷德里克·费雷.技术哲学[M].陈凡,朱春艳,译.沈阳:辽宁人民出版社,2015:102.
[8]薛孚,陈红兵.大数据隐私伦理问题研究[J].自然辩证法研究,2015(2):45.
[9]维克托·舍恩伯格,肯尼斯·库克耶.大数据时代[M].盛杨燕,周涛,译.杭州:浙江人民出版社,2013:202.
[10]邱仁宗,黄雯,翟晓梅.大数据技术的伦理问题[J].科学与社会,2014(1):43-44.
[11]马克思.1844年经济学哲学手稿[M].北京:人民出版社,2014:54.
[12]赫伯特·马尔库塞.现代文明与人的困境——马尔库塞文集[M].李小兵,译.上海:上海三联书店,1995:106.
[13]陈仕伟.大数据异化的伦理治理[J].自然辩证法研究,2016(1):47.
[14]黄欣荣.大数据技术的伦理反思[J].新疆师范大学学报,2015(5):51.
[15]蒋洁.大数据预测的伦理困境与出路[J].图书与情报,2014(5):64.
[16]安宝洋,翁建定.大数据时代网络信息的伦理缺失及应对策略[J].自然辩证法研究,2015(12):46.
[17]陈仕伟.大数据异化的伦理治理[J]. 自然辩证法研究,2016(1):49-50.
[18]陈仕伟,黄欣荣.大数据时代隐私保护的伦理治理[J].学术界,2016(1):94.
[19]曹刚.道德难题与程序正义[M].北京:北京大学出版社,2011:121-126.
[20]米歇尔•福柯.规训与惩罚[M].北京:三联书店,2015:193-194.
[21]Hans Jonas.The Imperative of Responsibility:In Search of an Ethics for the Technological Age[M]. Chicago:The University of Chicago Press,1985:31-32.
[22]Hans Jonas.The Imperative of Responsibility:In Search of an Ethics for the Technological Age[M]. Chicago:The University of Chicago Press,1985:37.
TP3
A
1674-6708(2016)171-0120-04
汪一舟,中国矿业大学马克思主义学院,研究方向为科技哲学。