APP下载

住进数字“圆形监狱”:人工智能时代隐私问题刍议

2019-11-29唐家佳

科技传播 2019年19期
关键词:韦伯合理化合理性

唐家佳

20 世纪两部反乌托邦名著《1984》(1949)和《美丽新世界》(1931)分别预言过未来社会。前者表示未来是一种被领导阶层以权力和技术高度控制的社会,同时可以接收和发送信息的“电屏”无时无刻都在监视着人们的一举一动。后者则认为恰好相反,领导层不需要动用暴力机器,而是利用意识形态国家机器营造了一个歌舞升平的“美丽新世界”,让被统治者根本不想从迷梦中醒来。二战以来,西方学界认为人类社会的发展趋势是从《1984》走向《美丽新世界》,但是,网络时代尤其是人工智能时代的到来,似乎正在倒转这一切,属于私有的个人信息在人工智能技术的助力下很容易遭到监视和泄露,所谓的隐私不复存在,从而使得这世界似乎从《美丽新世界》又开始走向《1984》。本文以此为视角,分析自工业革命以来科技的变革对人类社会的多次重构及伴生的影响,思考在今天的人工智能时期,技术发展所带了的隐私风险。

1 人工智能的产生与发展

学术界普遍认为人工智能学科的诞生是在1956年达特茅斯召开的关于人工智能的研讨会,在当年会议上起草了一份建议书中首次提出人工智能(Artificial Intelligence)这个概念。进入21世纪,深度学习和大数据的广泛应用,人工智能进入了第三次研发浪潮,这其中最具代表性的事件要属2016 年谷歌研发的人工智能围棋程序战胜了世界排名第一的围棋选手李世石,这场令人出乎意料的人机对弈的结果引发了人工智能将如何改变世界的广泛讨论,隐藏在这场讨论之中的是对人工智能未来前景的深深忧虑。正如尤瓦尔·赫拉利所说:“以人为中心的世界观正在走向以数据为中心的世界观,这种转变并不只是一场哲学意义上的革命,而是会真真切切地影响我们的生活”[1]。乌尔里希·贝克则更加悲观的认为,我们的社会己经迈入到风险社会阶段,贝克将这种风险定义为“人工智能风险”,是人工智能技术发展所引发的人为的、不可预见的不安全性,短期的失业、隐私破坏、技术依赖,中期的威胁公众安全、加剧社会不平等,长期将消解人类主体地位[2],本文着重探讨人工智能时代的隐私风险。

2 人工智能时代的隐私风险

学术界目前主要将隐私分为信息隐私、空间隐私、自决隐私等类型。对于前两种隐私比较容易理解,而自觉隐私则是指个人不受外界干扰、可自主决定其隐私生活的权利,它建立在权利人意思自由的基础上。[3]目前,以上3 种隐私均已受到人工智能不同程度的侵犯,自决隐私的侵犯通常表现的更为隐蔽,人作为数据产生的所有者却对其没有控制权,即所谓的“自决权”。

笔者认为,在人工智能时代还有一种基于人类个体生物信息的隐私问题,笔者称之为“生物信息隐私”,生物信息就是人体以DNA 编码的遗传信息,通过基因主导的人体的面部特征、生理特征和生物行为等,这类隐私信息目前的应用主要在人脸图像识别和医疗健康领域。在今天基于计算机视觉(Computer Vision,CV),也称为机器视觉(Machine Vision,MV)的人脸识别技术正在走向日常生活中的应用场景(如刷脸解锁、刷脸支付、刷脸进站等),这些应用通过读取人体细微差别的生物信息进行编码和建立数据库,利用这项技术可以从众多个体中精确的识别出某个人,如果没有很好地保护人脸这一具有弱隐私性的生物特征,同样会对公民的隐私甚至人生安全造成威胁。而在医疗健康领域,人工智能主要依靠读取患者的身体的生物信息和病理信息,建立关于患者的病历库并以此综合形成庞大的医疗数据库以帮助解决众多医学问题。目前人工智能在医疗健康领域的应用已经由包括医疗机器人、智能诊疗、智能影像识别等。这些技术看似会成为人类社会发展的福音,但争议仍然很大。因为个人偏好还可能随着使用习惯、社会环境的改变而变化,而生物特征一旦被大数据所掌握,人类个体的一切神秘感都将消失,实则是对隐私最赤裸的监控。

3 人工智能时代隐私风险的“迷思”

德国著名的哲学家马克思·韦伯曾提出理性或合理化的概念,指的是“服从于合理决断标准的那些社会领域的扩大,与此相对应的是社会劳动的合理化,其结果是工具活动(劳动)的标准也渗透到生活的其他领域(生活方式的城市化,交通和交往的技术化)”[4],韦伯的表述意在说明现代社会“合理化”的进程是和通过意识形态将科学技术的发展纳入系统化和规范化结合在一起的。对此,马尔库塞认为,也许技术理性本身就是意识形态层面的。不仅技术理性的运用,而且技术本身就是(对自然和人的)统治,就是方法的、科学的、筹划好了的和正在筹划着的政治。即技术的恰如其分的运用和(在既定情况下确定目标时)诸系统的建立[5]。在韦伯和马尔库塞对理性或合理化的阐释中,都提到了关于技术的合理化运用和从意识形态层面考虑规范技术运用的制度化标准。对于现阶段人工智能行业的发展,确实制造了人类想要的东西,并将很多想象变成了现实,也创造了大量的物质财富,但是所有科技的发展背后都存在着满布危机的“达摩克里斯之剑”,潜藏着的棘手问题必须予以解决,这个过程需要多方共同参与。

首先一点就是韦伯和马尔库塞谈到的关于技术的合理性运用。韦伯将对合理性的阐释分为两种,一种是价值合理性,一种是工具合理性。价值合理性强调处事动机的合理性并且要使用合理合法的手段去达到某种目的。工具理性则强调一切以效果最大化为标准,行为动机趋于功利性而漠视情感和伦理。工具理性给资本主义带来有力的影响是促进了它的发展,但此后渐渐走向极端化,于是韦伯开始思考价值合理性对社会的发展同样重要。笔者认为关于技术的合理化应用实质在于实现价值合理性和工具合理性的两者的融合。明确任何科技发展到最后都要面临伦理问题的挑战,关于技术合理性的使用不能缺乏对“人”的人文价值层面的关怀,而这个人在技术层面已经被视为由数字和字母编码而成的数据。因此无论是在商业层面、技术应用层面还是医疗健康等层面,必须要注重对关联的隐私数据进行合理的保护,保护大众作为隐私信息生产的主体权利,并且严格要求合理化使用,不能随意泄露、贩卖给第三方或者是用于其他不正当用途。

对于技术开发者而言,对在当前的历史时期人工智能技术的应用、开发和风险要有充分的掌握和了解。当前,需要人工智能技术开发人员去解决有关的隐私风险主要集中在两个方面,一方面是人工智能研发过程中难以突破的技术缺陷导致隐私难以被把控,另一方面是人工智能产品本身产生的难以被预知的突发行为带来的隐私泄露风险。前者有赖于开发者们不断进行领域创新,冲破技术壁垒,利用技术自身去规避隐私风险。后者从实质来看,仍然是通过人的智力被研发出来并受到研发人员主体的控制,因此研发人员在完善专业领域技术开发的同时仍需要遵循一定的技术伦理,并为人工智能的失控行为承担应有责任。

4 总结

人工智能技术的出现确实实现了人类对过去世界众多美好的想象,正在重塑和重构我们的生活的方方面面,但不可否认的是,同时也将世界置于更多的挑战之下。面对这些问题的困惑时我们有必要回过头去思考“科技真正想要的是什么”。凯文·凯利在《技术想要什么》中提到关于科技的需求,科技真正追求的其实和我们人类的需求一样,我们希望能够创造更多更有意义的价值。“一项技术找到自己在世界上的理想角色后,会积极的为其他技术增加自主性、选择和机会,我们的任务是引导每一项新发明培育这种内在的‘善’”[6]。因此我们在思考人工智能技术对隐私问题带来的影响时有必要回到技术发展的“初心”需求,即对价值的追求。正确认识人工智能技术的本质追求和其对社会生活各方面带来的影响,从技术的开发、应用等层面多维度协同合作,规范行业管理,如此才能在隐私问题上找到出路,重新人们对技术的信心。

猜你喜欢

韦伯合理化合理性
韦伯空间望远镜
蒙住眼,因为剁手难——为什么清代不能建立合理化的央地财政分权
五月是什么
韦伯空间望远镜
机械制造工艺的合理化机械设计
基于认知合理化的会计舞弊治理:研究基础与框架策略
我国产业结构合理化程度的差异研究
新形势下新闻采访行为的合理性探讨
域外证据领事认证的合理性质疑
至善主义、合理性与尊重