价值理性视域下的人工智能及其伦理边界
2022-02-05张荣军
李 微 张荣军
(1.青岛大学,山东 青岛 266071;2.贵州师范大学,贵州 贵阳 550001)
在现代社会,工具随着技术的发展不断得到改进。在劳动实践过程中,人们试图让机器拥有某些人类的思考能力,以便能够进行人机交流,更好地服务于人类。自20世纪中叶,英国数学家图灵在《计算机器与智能》一文中提出“机器能思考吗”这一问题后,人们就开始了对人工智能(artificial intelligence)的研究。在21世纪,随着互联网科技及计算机技术的迅猛发展,关于人工智能的研究也达到了新的高度。
人工智能是人类智能的延展,作为计算机科学的分支学科与前沿学科,人工智能既是一门跨学科的技术科学,又是这种技术科学的具体应用,包括机器人、智能制造、智能医疗、智慧城市等等。欧盟将“人工智能”定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务[1]。时至今日,人工智能利用计算机的强大计算能力,在机器人、文本、语音、图像的识别和处理等领域对人类智能的理解已进入到一个新的更深的领域,使得智能机器能够胜任比人类智能更为复杂的工作。它拥有普通人不具有的能力,在进行计算时比人脑做得更快也更准确,为我们的现实生活提供了许多新的可能性。
随着人工智能技术的发展,一些学者的担心也在与日俱增。不可否认,人工智能的认知能力会越来越强。当具备了远远超越人类的强大认知能力和学习能力时,人工智能能否达到拥有完全的自主意识与创造能力?曾长期作为客体存在的人工智能能否拥有主体性地位?甚至一些学者担心这些拥有超级感知能力与自我学习能力的机器会不停地自我进化,演变方向会越来越不可控,或许会让人类处于不可预测的风险之中,从而给人类社会带来不可预见的灾难性后果。面对这些疑问,我们需要认真思考由人工智能所带来的一系列问题,如人工智能与人类智能的关系问题,人工智能的本质问题,人工智能与人的主体性问题,人工智能与人类生存的意义、价值、尊严以及未来发展的命运问题,人工智能所引起的社会伦理问题,等等,这是人机交互时代向我们提出的哲学课题。
一、人工智能的工具本质
人工智能就其作为计算机技术的成果而言,是实现人的本质力量的形式之一,是人为了更好地生存发展所创造出来的智能工具,是对人脑的高度模拟,是人体器官功能的延展。作为工具,人工智能不会拥有人类意识,也不会取代人的主体地位。
(一)人工智能无法拥有人类的自主意识
西方社会一直有一种谨慎的声音,认为我们应当对人工智能心存敬畏,当人工智能发展到具备自我意识的时候,可以做出自主决定,或许会对人类构成威胁。拟人机器人索菲亚的设计师戴维·汉森认为索菲亚进化的“目标就是像任何人类那样,拥有同样的意识、创造性和其他能力。”[2]当机器人索菲亚于2017年在沙特获得公民身份时,关于人机关系的讨论也日益激烈,人们普遍认为人工智能最大的危险就在于其是否拥有意识。埃隆·马斯克一直担忧人工智能的发展会对人类造成威胁,他公开呼吁限制机器人,认为对人工智能的研发是在“召唤恶魔”。国内也有一些学者对人工智能未来是否会威胁到人类生存表示担忧。
就现实世界而言,人们对于外部世界的认识需要靠外部实践经验来获取,这是一种居于客观性地位的知识;而对于思维、意识等精神实体的认识,只有靠主体的个人体验,这种认知不具有外部世界知识那样的共享性。人工智能在其运行中所运用的知识是人们事先设定的,它的认知方式是物理的过程,这样的认知方式不会理解人类独特的精神现象与意识体验。在这个意义上,人工智能从它产生的那一天起,就决定了它不可能去完成这样一个不可能完成的任务——以物理的方式取代人的意识行为。
现代神经科学认为,任何心理状态都是特定的大脑神经状态。据此,有学者认为,我们可以通过对大脑神经的详细描述来解释人类的意识现象,甚至模仿人类神经的电子神经网络同样可以产生意识。问题是,具有精神特性的人类意识真的可以固化为神经的某种状态吗?果真如此,我们的意识岂不成了客观的可读可观察的物理现象?固然,人的意识离不开大脑神经元,但把人类大脑复杂的活动仅仅归结为神经元的某种状态,这种对人类意识的解释显然是肤浅的甚至是荒谬的。人工智能永远不会拥有人类的自主意识和创造力,任何所谓的人工智能意识,只具有程序的意义,意向性是人类意识特有的。
人是自然界长期发展的结果,是社会的产物,意识作为“地球上最美的花朵”只能是人脑的机能,人类是唯一拥有自我意识的生命。目前认知科学的研究力图把具有精神现象的人类意识用一种自然科学的方法来解释,然而并非所有的意识现象都可以还原为物理现象去做一种自然科学的解释。哪怕是借助最新科技手段,人工智能也无法达到解决复杂意识问题的程度。正如神经科学家阿尔布赖特所言:“或许所有生物学问题中的最大的未解问题就在于对意识的分析。”[3]人在物质世界中生活,有喜怒哀乐的情绪表达,有信念、理想、欲求以及心智的创造能力,这种心智层面的主观性意识体验是人工智能永远不可能达到的。
笛卡尔曾基于他的二元论世界观提出“动物是机器”这一论断。他认为多样性的世界有两个本原:一个是有广延而无思维的物质实体;另一个是能思维的心灵,是一种精神实体。人是灵魂与肉体的结合,但灵魂与肉体相互独立,并列存在。与人相比,动物不具有理性灵魂,不存在精神世界,其肉体只是在做机械运动,因而“动物是机器”。笛卡尔“动物是机器”这一论断,其哲学价值就在于他认为机器并未处在与人同等的具有灵魂的地位。换句话说,机器和动物一样没有意识,并不具有独立思考的能力,“动物同自己的生命活动是直接同一的”[4]184。拉·梅特里则在笛卡尔“动物是机器”的基础上提出“人是机器”的论断。他认为人与动物相比,只不过是多几个齿轮、多几个弹簧,构造更加精巧和复杂一些,人“归根结底却只是一些动物和一些在地面上直立着爬行的机器而已”[5]70。“人体是一架会自己发动自己的机器:……体温推动它,食料支持它。”[5]21因而人的一切活动都是机械运动。
我们可能过多地关注拉·梅特里这一论断把人复杂的生命运动形式降格为简单的机械运动,而没有真正理解其蕴含的一个深刻思想。事实上,拉·梅特里是在以一种机械唯物主义的形式去反对神学。作为一个无神论者,他否定了人是上帝所创造的传统神学观念,认为“人并不是用什么更贵重的料子捏出来的”[5]45,人是宇宙中最完美的物质组织,人体的各器官在做着完美的机械运动。人作为复杂的生命体,其复杂的生命现象可以还原为简单的机械现象和物理现象,但机械现象和物理现象却绝对不可能达到生命现象的高度。拉·梅特里这一论断,论证了人的精神、思维绝不是可以离开人的机体而独立存在的东西,它们是大脑的功能。
从18世纪发展到现代,从普通机器发展到人工智能,作为机器,人工智能依然是人的机能的延展,是人的认知能力的提升。设想人工智能可以离开人而独立思考,正如神学唯心主义所设想的可以有离开物质而独立存在的精神实体是一样荒谬的。人工智能的发展即便在将来,也不会拥有人类真正的自我意识以及特有的情感,它只能实现对人类智能的模仿。因为主体与客体、生命与非生命的界限是清晰的,没有这样的界限区分,就没有真正的人的存在。虽然人工智能以其强大的计算能力参与到人类的社会生活过程中,但它只是一系列被动的无意识的物理过程。人工智能无论发展到什么程度,都不具有自我认知能力,不具有任何自主性和自主意识。
(二)人工智能无法取得人类的主体地位
首先,处在客体地位的人工智能只是对处于主体地位的人类智能的模仿。近年来,人机对弈成为新闻的热点,尤其是2021年谷歌围棋系统“AlphaGo”战胜韩国围棋名将李世石之后,李世石表示,这不是人类的失败,只是他个人的失败。的确如此,人机对弈的实质并非是人与机器的较量,事实上是棋手与一群专家之间进行的对弈。机器是人类智慧物化的形式,是人的认知系统的延展。机器只是被人推到前台以某种运行程序展现人类智力的终端而已。任何人工智能都是大数据、云计算等智能系统整合的结果,因此,所谓机器学习,不过是机器以信息论、控制论以及统计学等作为基础的经验获取过程。人类智能不仅能够积累经验,更重要的是人类智能拥有某种基于经验的创造能力,而这正是人工智能所不具有的。
2019年8月,英国萨里大学以人工智能为独立完成人和发明人对其发明创造提交专利申请,此事在学界引发了广泛的讨论。人工智能生成的作品或成果是否享有法律保护的专利权或著作权?人工智能如果对人类造成伤害应该由谁来承担相应的法律责任?对此问题,从本质上讲,人工智能是对人脑的模拟,是人脑机能的延伸,作为机器,它仍然是人类的劳动工具,虽然在计算机技术中加入智能成分,但这不足以使人工智能蜕变为发明主体。人工智能的创造性成果,来自于人类事先设定好的算法和预先置入的数据,事实上仍是人类智能的成果。人工智能发展到任何程度和任何时候,我们都不会重新定义人的存在,不会动摇人的主体地位,因为人的生命不纯粹是一种自然的生物现象,他还是一种社会现象,其本质正如马克思所指出的:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”[6]人工智能不会具有人所拥有的社会性,它不会取得人所拥有的主体地位。
其次,人工智能的运行是一种无意义的物理过程,而人则生活在意义世界之中。“意义世界”是客观世界相对于主体而言的价值呈现,它必须有一个主体存在,它是由主体的意向活动所指向的世界。如果没有一个有意识的主体,世界只不过是一种纯粹客观的本然存在,任何“意义”都无从说起。“意义世界”表明的是一种主客体的关联,是对本然世界一种人文意义的赋予。《传习录》曾记载阳明先生游南镇时面对自开自落的山中花说道:“你未看此花时,此花与汝心同归于寂;你来看此花时,则此花颜色一时明白起来,便知此花不在你的心外。”[7]“意义世界”是属人的世界,自开自落的山中花正是由于人的欣赏才有了它存在的意义。人工智能永远不可能去自主理解作为精神性存在的人类的内心世界,更不会主动把人的心理意识和外部世界相联结,人工智能的运行永远都是一种无意义的物理过程,其局限性在于它只能进行事实理解。因而,人工智能的世界是一个无意义的物理世界。
在德国现代哲学家卡西尔看来,人是通过创造文化符号来展示自己的存在。从本质上讲,文化是从人类生命中生成的东西,人类创造出文化符号使自身与周围的世界相联结,“人的突出特征,人与众不同的标志,既不是他的形而上学本性,也不是他的物理本性,而是人的劳作”[8]。人在劳作中创造出的文化形式都是符号,人类的一切文化、生命的觉醒、生命的自我意识都是通过符号形式的运作展现出来。在此意义上,人是“文化的人”,是“符号动物”。
把人作为一种文化的人,一种符号动物,才能真正把人从动物的物理世界提升出来。人类和动物感知世界的方式是截然不同的,动物是通过本能的非概念的方式来感知世界,而人类则通过自己所创造的符号系统感知世界。人类把我们所体验到的内容概念化为某种知识的体系,打造出一个属人的符号世界。“人不再生活在一个单纯的物理宇宙之中,而是生活在一个符号宇宙之中。”[9]35从符号的角度看,人工智能的计算事实上只不过是在人类所创造的符号表达方式上进行的信息处理。人类日常行为模式的基本特征就是以思想语言的方式来表达,这样的表达方式可以以信息处理和数字计算等人工智能的方式来模拟,但这样的处理过程并不涉及符号所表达的任何语义。基于人类文化符号运行的机器,只不过是人类意识的处理器。
二、技术理性、价值理性与人工智能
既然人工智能的本质是工具,是技术的展现,那么在现代社会,人们有理由担心,作为技术理性产物的人工智能,其发展会越来越背离人们对价值理性的追求,使人们越来越陷于技术的宰制状态之中。马克斯·韦伯认为价值理性(value rationality)是理性和价值的交融,是人对于价值问题的理性思考。价值理性是“价值合乎理性的,即通过有意识地对一个特定的举止——伦理的、美学的、宗教的或作任何其他阐释的——无条件的固有价值的纯粹信仰,不管是否取得成就”[9]56。可以看到,韦伯是把价值理性作为人们自觉信奉的非功利性社会价值观合乎理性地展现出来。价值理性是主体对自身生存价值及其存在意义的体认与追求,它关注的是属人的意义世界以及人类的精神家园,它着眼于人的幸福,是对现实的人的关怀,也是对人的终极关怀。价值理性是支配人生活实践的一种深层精神力量。在价值理性的视域中,作为主体的人是中心,是唯一的目的,也是终极目的。
在前资本主义时代,由于知识贫乏,人们认为是某种神秘的精神在支配着这个世界,此时价值理性在人们头脑中占据主导地位。随着资本主义时代尤其是工业革命的到来,技术剥开了自然神秘的面纱,使支配自然的神秘精神力量不复存在。“人们可以通过计算掌握一切,而这就意味着为世界去魅。人们不必再像相信这种神秘力量存在的野蛮人一样,为了控制或祈求神灵而求助于魔法。技术和计算在发挥着这样的功效,而这比任何其他事情更明确地意味着理智化。”[10]29韦伯认为正是技术导致了自然的“去魅”,“去魅”意味着认识过程的理智化。技术强化了这一过程,使得我们的认识似乎更接近于“科学”,但却丢失了事物的精神意义,导致价值理性衰落。韦伯认为:“我们这个时代,因为它所独有的理性化和理智化,最主要的是因为世界已去魅,它的命运便是,那些终极的、最高贵的价值,已从公共生活中销声匿迹,它们或者遁入神秘生活的超验领域,或者走进了个人之间直接的私人交往的友爱之中。”[10]48而其直接的后果则是:“启蒙理性在消解传统伦理的蒙昧秩序的同时,也使得人类不得不面对重构伦理秩序的实体性根基的现代性问题。”[11]
海德格尔也对“技术”(technology)问题进行了分析,他说:“如果我们把技术当作某种中性的东西,我们就最恶劣地听任技术摆布了;因为这种观念虽然是现在人们特别愿意采纳的,但它尤其使得我们对技术之本质茫然无知。”[12]海德格尔认为仅对技术作一种工具性的解释,会忽视技术的价值性。工具的现成性使得技术的社会性很容易被遮蔽起来,从而被视为脱离社会的东西。他认为是技术导致人们不能诗意的栖居,是技术造成对存在的遮蔽,使人们失去了存在的本真方式,失去了精神家园,造成现代人的无家可归。
科技从来都是双刃剑。当人类踏上工业革命的门槛之后,快速发展的科技在给人们的社会生活带来巨大福祉的同时,还带来自然环境的恶化、人们价值观的扭曲、精神家园的丧失等负面影响。受韦伯和海德格尔的影响,法兰克福学派的“社会批判理论”最早对技术进行了分析批判,马尔库塞提出“技术理性”(technology rationality)这一概念,他认为:“理性观念最近已经蜕化为技术理性的极权主义的领地。”[13]技术与理性结合而成的技术理性造成了一个单向度的社会,当理性只剩下技术理性这一个向度的时候,价值理性被遮蔽,作为理性存在的人失去了批判和否定的能力,人们沉溺于物欲的满足之中,但却失去了自我。现代社会技术给人们提供的自由越多,它给人们的限制也就越多,因而,马尔库塞力图构建一个非压抑性的社会,摆脱技术理性的控制,以使人们逃脱异化的牢笼。霍克海默和阿多诺也认为是启蒙理性蜕变为“技术理性”,才使得自然屈从于技术理性。在技术理性的控制下,自然界逐步变成了异化于人的“商业化了的自然界、污染了的自然界、军事化了的自然界,不仅在生态学意义上,而且在实存本身的意义上,切断了人的生命氛围”[14]。 因此,人必须摆脱这种由技术理性所造成的“精神媚俗化”表现。
无论是作为个体还是作为“类”存在的人,其理性随现代科技的发展而成熟,这本身就是一个“去魅”的过程,也是技术理性带来的必然结果。但技术理性的“去魅”却造成了“不仅在自然界,而且在整个世界中,经验都不占有真正重要的地位。因而,宇宙间的目的、价值、理想和可能性都不重要,也没有什么自由、创造性、暂时性或神性。不存在规范甚至真理,一切最终都是毫无意义的”[15]。知识本应是对世界因果关系的揭示,应向人们展示真理,而当把理性和知识物化为技术之后,“在通往现代科学的道路上,人们放弃了任何对意义的探求。他们用公式替代概念, 用规则和概率替代原因和动机”[16],而此时对价值理性所倡导的人生意义的追求则被人们所抛弃。雅斯贝尔斯指出:“今天的人失去了家园,因为他们已经知道,他们生存在一个只不过是由历史决定的、变化着的状况之中,存在的基础仿佛已被打碎。”[17]埃吕尔从人性的角度来考察技术,认为现代社会已成为一个技术社会,现代技术思维渗透到社会的各个方面,成为控制一切的力量。极度膨胀的技术理性导致人们自主性的减少,阻碍了合理的价值体系的形成,有碍于人们对道德精神的追求。单纯强调技术理性的作用,可能会导致技术成为一种异己的力量,从而使人类生存的价值、意义处在技术的视野之外,最终会导致人类文明的丧失。
当否定技术理性,把技术理性置于审判台的时候,我们可能没有意识到,真正消解人类生活意义的并不是技术,而是价值理性的缺失。技术理性只关注行为的目的性,它不关心达到目的的手段和目的所引起的可能后果,而价值理性则将手段作为自觉思考的对象,它关注行为本身的价值。技术理性的行为具有精确性,它用符号对事物进行定量化的解释,而价值理性则以信仰、人的生存意义和价值等来对主体进行描述。
人工智能作为人类理性的产物,它本应既达成人类的某种目的,又重视人的意义与价值。技术理性和价值理性之间应保持必要的张力,只有二者相互协调时,人和科技之间才具备和谐共生的可能。但在技术理性的视野中,人们更多关注它是否给人们带来某种利益。人工智能越来越成为获得利益的主要方式,当人离不开机器之后,理性便会沦为经济利益的工具。当人们跪倒在物质面前时,便找不到人之为人的意义,更看不到人的尊严。从人工智能的工具本质看,人工智能本身并不能展示人的价值、意义及尊严等价值理性的追求,但人工智能的发展过程离不开价值理性的导向作用,否则人工智能就会成为窒息人的生存意义和戕害人类尊严的帮凶,价值理性应始终对人工智能的发展起不可或缺的审查、纠偏、导向和批判作用。技术理性的膨胀所带来的直接后果,就是使理性越来越工具化,其最受诟病的,就是其目的至上论。随着技术理性的膨胀,其逐步异化为一种异己的力量,形成对价值理性的僭越,从而使人们忘记了价值理性所指向的人的存在、发展、价值、意义、义务、尊严以及美感等精神层面的问题。爱因斯坦指出:“我们切莫忘记,仅凭知识和技巧并不能给人类的生活带来幸福和尊严。人类完全有理由把高尚的道德标准和价值观的宣道士置于客观真理的发现者之上。”[18]
价值理性既然强调人的尊严、人的价值与意义,那么从价值理性的角度看,人类自开发设计人工智能之始就必须首先要建构理性的、正当的价值目标,技术理性只不过是达到目标的手段与工具。价值理性要使人工智能实现为人服务的初衷,摆脱技术专业性的统治,消除劳动的异化,恢复劳动的真正意义;我们要在价值理性的导向下构建一个非压抑性的社会,消解人工智能驾驭人的状况,实现人与自然、人与人、人与社会的和谐共生。这种和谐共生关系,意味着人对自然的回归;人对自身的回归,意味着自然的解放,同时也意味着人自身的解放。价值理性要引导技术理性的发展方向,把科学技术的求真精神转换为对人类命运的关切,关注人的价值、意义的追求,确保科技运用的正确方向,使人与社会协调发展。正如康德所指出的:“每一个理性存在者都应当决不把自己和其他一切理性存在者仅仅当作手段,而是在任何时候都同时当作目的自身来对待。”[19]
三、人工智能的伦理边界
哈佛大学学者梅塞恩曾说过:“技术为人类的选择与行为创造了新的可能性,但也使得这些可能性的处置处于一种不确定的状态。技术产生什么影响、服务于什么目的,这些都不是技术本身所固有的,而是取决于人用技术来做什么。”[20]如何运用技术,涉及到人工智能的伦理问题。早期的人工智能只是机器的自动化,人们还没有对它进行认真的伦理思考。20世纪中叶,人们在某些科幻小说或影视作品中开始思考人工智能的伦理问题。近年来,随着人工智能系统的智能程度越来越高,人们开始关注其可能带来的伦理风险,学界也纷纷撰文对人工智能伦理进行探讨。2019年6月17日,我国人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。2019年10月,在苏州召开的中国计算机大会还就“人工智能开发的道德边界在哪里”为主题进行了专题讨论。人工智能的伦理问题已不再是文学或影视作品中的假想,而是成为当下不可忽视的热点问题。
(一)人工智能不是真正的伦理主体
关于人工智能的伦理问题,学界大致存在两种不同的理解:一是认为不存在独立的人工智能伦理,因为人工智能只不过是机器,是人类为实现某种目的的工具,而伦理则是人们在社会生活中所依据的道德规范系统,它关涉的是人的情感、意志以及价值观等方面,人工智能还远谈不上伦理,应该将人工智能排除在伦理之外;二是认为人工智能虽然是机器,但却是人对这个世界的人为创构,它是人类有意识建立起来的一套智能系统,是人类道德行为的延伸,它的使用无不体现着设计者和使用者的道德意图,因而人工智能有其伦理问题,人工智能应当承担道德责任。
让人工智能拥有伦理属性是否可行?如果让人工智能拥有伦理属性,意味着人工智能拥有道德主体地位,它要为它的行为负责。前文已论述过人工智能无法取得人类的主体地位,这与学界通常的看法是一致的,即认为人工智能是无法承担其道德责任的,至少在目前,它只是对人类思维及行为某些方面的模仿,并不是真正意义上的道德主体。尽管如此,人工智能的广泛应用已在社会现实生活中引发了一系列伦理风险,因为随着人工智能的发展,人类开始把自身的某种决策能力让渡给机器,从而使机器由被动的工具向能动的主体转变,让机器不需要人类介入便可表现出某种自我学习和进化的能力,并在某种程度上做出自我判断。虽然人工智能不是真正的伦理主体,并不具备人类的自主意识,但人工智能决策的结果却具有伦理属性。鉴于此,人们不能仅仅从人工智能技术所导致的具体的可怕后果去看待人工智能给人类带来的危险,而应看到人工智能背后本质性的东西。
从伦理的角度看,人工智能技术基于复杂的算法,算法做出的任何决定都要经受住检验和解释。人工智能是一个系统,对于它的运行来说,笔者认为它主要应该有三个阶段:前端的系统编码与程序开发、中端的系统运行以及后端的结果。对于人工智能的伦理问题,我们应该把重点放在人工智能的前端和后端。前端应保持算法的中立性,在人工智能机器中,人类将自我的决策能力转换为高度智能的算法,以解决特定的问题。算法本身是一种通过计算机的数学表达,它是一个客观的过程,本身并不存在任何意向性,不存在是否公平的问题。但算法是设计开发人员赋予的,他们的主观选择和判断都能左右算法是否公平。另外,算法所依据的大数据是否准确有效,也会影响算法结果的准确性与公平性。从人工智能前端保证算法的中立与公平,可以使人工智能后端的结果符合人们的伦理规范与价值理性的要求。因而人工智能的前端和后端结果具有伦理的属性,而这种伦理属性,依然可以归结为人与人之间的伦理规范。也就是说,人工智能毕竟只是人工的,它意味着机器的任何行为都必须有人类的干涉与介入,它是被动的人类情感的投射,不可能获得和人类同等的权力和行为能力,它只能按照既定的程序运行,没有真正的自主性。人类与人工智能只是人与自身创造物的关系,人工智能作为人的创造物而存在,并不是真正的伦理主体。
(二)价值理性与人工智能的伦理边界
人工智能虽不是独立的道德主体,但其行为后果却有其伦理属性。欧盟曾邀请人工智能专家起草了《人工智能伦理准则》并于2019年4月8日发布,旨在提升人们对人工智能产业的信任[1]。此准则认为“可信赖的人工智能有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。”[1]此准则还提出了人工智能的七个条件,其中主要提到了人类的力量和监督,即人工智能不能侵犯人类的自主性,人们不应该被人工智能系统操纵或胁迫,而应该能够干预或监督软件做出的每一个决定。另外,技术的健全性和安全性、隐私保护、算法的透明、非歧视性和公平以及可追责性等人们关心的问题都被列出。欧委会副主席安德鲁斯·安西普明确表示:“符合伦理标准的人工智能将带来双赢。”[1]
有人工智能专家建议应该邀请伦理学家一起共同开发更加复杂的方案,对人工智能系统进行精心设计,加以人性的建构,甚至给人工智能置入人类的道德价值观,把人们对价值理性的追求嵌入人工智能的程序之中,让人工智能能够做出道德的决策,从而以对人类无害的方式运行。笔者认为,所谓人工智能的道德决策问题本身就是一个伪命题,在人工智能的算法中加入伦理规则是不可能的。1936年,图灵在《论可计算数及其在判定问题上的应用》一文中,对于机器的认知能力,清晰地区分了什么是可计算的、什么是不可计算的。就是说,人工智能有其局限性,它不能处理不可计算的问题,只能执行确定的程序。就人类智能的理解力而言,对于外部世界的意识以及意识体验,对于事情的意义理解、自我的情感与创造能力,这些是明确的不可计算的领域。这些带有明显主观特性的个体体验,人工智能显然不具备计算能力。事实上,我们关注的重点不应该是人工智能本身的道德决策能力,人工智能系统只是根据预先设定的程序进行某种行为决策,而这种决策无所谓道德或非道德,它的规则与算法是由其开发设计者设定的,我们应该把人工智能系统设计者的道德因素放在首位来考量。人工智能是人的器官功能的延展和心智的物化,它执行的是人类命令,因而它的行为与决策是否具有伦理的意义,是基于人类的判定而不是人工智能自身的意识,即是说,人工智能是为人服务的,它本身不能被赋予任何“人性”的标签,因而人工智能的伦理规则只能由人类赋予。
既然人工智能有其伦理属性,那么就需要找寻人工智能的伦理边界。人工智能伦理边界的构建应从人类本身来考量,应按照人类社会的伦理道德要求来实现人工智能自身的价值。从现代社会发展的需要看,公平以及安全应该是人工智能的伦理底线。北京旷视科技公司2020年曾发布全球十大人工智能治理事件,几乎有一半事件涉及到安全和隐私问题。因此,借助于公平、安全等底线思维来为快速发展的人工智能技术制定出一套新的伦理规范,合理划定它的伦理边界,以实现其价值理性目标,使人工智能更好更有效地服务于社会,是我们面临的重大任务。
从价值理性的视域讨论人工智能的伦理问题,我们看到,价值理性体现为人类的伦理精神,人工智能的伦理边界和人们对价值理性的追求是一致的,落脚点还是放在对人的关心上。从人类的尊严和利益出发来看人工智能的伦理问题,是对当下自我生命的尊重,更是对未来生命的预期。由于人工智能的复杂性以及它可能产生的伦理问题,我们确实需要对人工智能的开发应用采取更为认真负责的态度。我们总是基于人类的视角来看待和评估人工智能技术的应用,而这事实上也正是我们对人工智能伦理问题考虑的基点。在人类中心主义饱受争议的今天,在人类和人工智能之间,我们还是要把人类利益作为道德评价的依据,人类中心主义依然是一种衡量人机关系的价值尺度。因而,人工智能的伦理问题,与其说是机器的伦理,毋宁说是人类自身的伦理。我们应该防范的不是智能机器本身,而是创造这些智能机器的人类大脑。机器本身无所谓善恶,人工智能的工具属性决定了我们对它的伦理要求,事实上正是我们对人工智能开发者的要求。人工智能伦理的道德主体是具有理性能力的开发者和设计者,我们要以价值理性约束、规范、引导技术理性。科研人员应该有责任、有底线,必须以价值理性为导向,以人为最终目的而不是手段,充分关注人类的尊严,保持人的主体地位,以免使我们的世界成为完全被技术控制的世界,人工智能应当为人类带来福祉,而不是风险。
四、结 语
我们正处在工业文明时代,如何应对即将到来的智能时代是一个重大的时代课题,讨论技术理性、价值理性、人工智能及其伦理问题更是一个难题。在未来,我们能否驾驭迅猛发展的人工智能,如何维护人之为人的尊严,如何重构未来社会的伦理体系,这些已成为人们不可回避的重大问题。但历史表明,我们无需对人类文明的发展方向持怀疑态度,更不要对未来抱有负面的悲观情绪。正如海德格尔所认为的,我们当代人不可能退回到未受技术侵害的田园乡村,“对于我们大家来说,技术世界的设备、器械、机器在今天是不可缺少的,只是对于不同的人来说程度不同罢了。盲目地攻击技术世界,或许这是愚蠢的。想把技术世界诅咒为魔鬼的勾当,这或许是目光短浅的”[21]198, “真正可怕的东西并非世界成为完全技术的世界。更可怕得多的是人对这世界变化没有准备,我们还不能够沉思地达到适当地探讨这个时代真正上升起来的东西。”[21]189在从工业文明走向未来智能文明的过程中,我们需要做好充分的准备,用新的话语体系来匹配未来的人工智能时代。
我们以价值理性为导向为人工智能设置一个伦理的边界,事实上是为人工智能的开发设计者设置一个伦理边界。这个边界不能践踏人类的尊严,不能丢弃人类的道德与精神追求,不能忘记人类的责任,不能毁弃人类几千年积淀的文明成果,不能戕害人类赖以生存的自然环境。科技无论是现在还是将来,也无论发展到什么程度,它都必须服务于人类、从属于人类、有利于人类的生存和发展。