APP下载

基于风险社会视角下的人工智能技术风险

2019-01-28张文杰

中小企业管理与科技 2019年2期
关键词:理性公众人工智能

张文杰

(苏州大学政治与公共管理学院,苏州 215123)

1 引言

著名社会学家乌尔里希贝壳认为现代性是社会风险的根源,并且认为当今社会最大的风险是技术风险[1]。吉登斯进一步提出风险社会中最主要的风险不是自然风险而是人为制造的风险[2]。现代化和人为制造的风险是风险社会最为根本的特征。人工智能技术是一门综合性很强的学科,其研究和应用的领域也非常的广泛,以往的学者大多都关注人工智能的发展和所遇到的一些困境,大多数文献从技术或实践层面上去剖析,而没有从风险社会这个背景去切入人工智能技术所产生的风险,因此,我们可以把研究的思路转向风险社会下的人工智能技术风险。

2 人工智能技术风险的特征

人工智能技术风险一直存在。我们在研发一项关于人工智能的产品的同时,有些科学家就预测到人工智能的发展会存在一定的社会风险。如Uber自动驾驶汽车致死案例[3],虽然从表面上看,自动驾驶车辆会大大改变人们日常出行的方式,其初衷也是减少驾驶的车祸风险,但是由于人工智能技术设计还不够完善,存在一定的缺陷,从而导致悲剧的发生,所以说人工智能技术本身在设计和运行的时候就存在一定的社会风险。

概括来说,人工智能技术风险的特征主要表现在以下几个方面,第一,人工智能技术风险的广泛性,人工智能技术和别的技术领域联系密切,任何一项技术都存在一定的风险,人工智能技术与别的技术紧密结合就会产生更广泛、更具有影响的风险。第二,人工智能技术风险的多样性,人类借助人工智能技术来改变自然和社会的过程中,使得风险的表现形式更加多样化,涉及政治、经济、文化和环境等诸多领域。第三,人工智能技术风险的不确定性,目前人工智能的发展遇到很大的瓶颈和问题,以现有的技术很难把握未来人工智能的走向,有很多人为的干扰和环境的影响导致风险的不确定性,最终实现真正意义上的人工智能还很难确定。

3 人工智能技术风险的后果

失业问题。在智能机器没有普及之前,大部分工作都需要工人通过双手去操作,很少依靠机器去运作。但是随着智能机器的普及和运用,未来的很多工作将被人工智能机器所替代,人工智能越发展,人类拥有的工作机会也会相应减少,一方面社会分工不合理,另一方面贫富悬殊越来越大,只有极少数高端的技术精英才能真正掌握人工智能技术,而绝大部分人不太了解甚至不适应人工智能所派生出的新的岗位,这样就会导致大量的工人失业。

公共安全性问题。人工智能技术的风险可能会严重的公共安全。科学家设计人工智能的目的是更好地为人类服务,更好地维护公共的安全,但是由于人工智能技术的不确定性和人为因素的干扰,给了不法分子可乘之机,如有些恐怖分子经常在公共场合进行恐怖袭击,他们完全可以利用人工智能技术来实现他们的目标;还有一些网络黑客精通人工智能的一些高端技术,在公共场合发表一些威胁论或者制造一些网络病毒,对公众的社会生活造成严重影响,侵犯公众的隐私,盗取公众的密码,这些都是比较严重的公共安全性问题。

生命不平等问题。随着人工智能技术的发展,会导致生命上的不平等。随着现代医疗水平的不断提高,人类的寿命也相应延长,如器官移植、基因工程以及纳米技术的突破从理论上都可以让人的寿命延长。有技术专家认为人与机器人相互结合所形成的赛博格是极为可怕的,人类本来可以用生物技术制造出新的器官,用新的器官可以延缓人的衰老,但人与机器的结合体所产生的费用非常的贵,绝大部分人都没有资格享用,只有极其富裕的人才能用,因而富人的寿命相比绝大部分人长一些,这样就会导致生命的不平等。

4 人工智能技术风险的成因分析

在分析了人工智能技术风险的后果之后,我们有必要对人工智能技术进行风险原因分析。

技术理性与社会理性的断裂。通常理性包含了技术理性和社会理性,现代社会的发展不仅需要技术理性支撑,更需要社会理性去维护。而现代社会技术发展的很大一个问题就是技术的异化,技术的异化指原本人类利用技术去实现自己的目的,到后来反被技术所控制和掌握。出现这样的原因是技术理性和社会理性的断裂。这种断裂当然也体现在人工智能技术对人本身的危害,其中折射出人工智能技术人员人文精神的缺失[4]。贝克曾说过没有社会理性的科学理性是空洞的,但没有科学理性的社会理性是盲目的。人工智能技术人员通常考虑技术的现实实践层面,缺乏对技术本身的人文思考,最终导致的结果就是加剧人工智能技术风险。

社会群体对风险认知的影响。不同的社会群体对风险的感知能力是不一样的,公众对人工智能的风险往往凭借自己的主观判断,因此,其并不了解人工智能技术的风险,往往对人工智能技术的风险感到恐慌,加上自己对人工智能风险的主观意识以及媒体和外界人士的评论,由此产生了恐惧的心理,公众对人工智能技术风险的感知也会影响到公众对风险的判断和风险专家制定预防风险的政策。同样,专家也会受到自己主观意识的影响,也有有认知偏差,而这种认知偏差就会产生严重的风险。

法律制度的不完善。人工智能技术专家在设计人工智能的时候很少考虑相关制度的实施。人工智能在社会实践的应用需要相关法律制度的保障,如果没有健全的法律制度,那么人工智能技术所产生的风险问题就会越来越大。虽然国外出台了一些相关的法律制度来降低人工智能技术所带来的风险,但是当下的法律制度还不及人工智能技术的发展速度。

5 人工智能技术风险规避

加强技术与文化的沟通。首先,人工智能专家在实施一项科技政策的时候,要听取不同领域人员的意见和建议,如人文工作者在实施科技政策之前就可以对技术提前进行分析,其次可以向技术人员灌输一些人工智能技术人文方面的知识,增强他们对技术的人文思考,这样从某种程度上可以规避一些技术的负面效应,让人工智能技术与文化有效融合和沟通,从而从某种程度上避免一些不必要的风险。

提高风险认知水平。由于当前公众对人工智能风险的认知水平有限,对风险的预测不太准确,甚至有些夸张,因此,需要通过一些方式来提高风险的认知水平。首先,要大力宣扬关于人工智能技术的一些科学知识,让公众多了解和掌握,从而降低对风险的恐惧。其次,通过心理的疏导和积极的正向引导,克服公众的负面情绪,让公众也能够主动参与进来,通过一段时间的积累就会逐渐提高对风险的认知水平。

完善相关法律法规。立法一直是治理国家秩序、进行风险管理的最佳途径,没有完善的法律法规,任何一项技术的实施都会出现问题。当今社会,尽管国内外出台了一些关于人工智能的相关法案,但是当下的法律法规还是跟不上人工智能的发展速度。因此,现在的相关法律法规还不能有效解决人工智能技术的一些风险,由于人工智能技术风险的广泛性和不确定性,需要不断完善法律法规,提前做好风险的预防工作,积极有效地应对人工智能技术风险。

猜你喜欢

理性公众人工智能
“双减”的路向反思与理性审视
公众号3月热榜
公众号9月热榜
公众号8月热榜
公众号5月热榜
2019:人工智能
人人都能成为死理性派
人工智能与就业
数读人工智能
下一幕,人工智能!