APP下载

人工智能伦理标准化路径探讨

2022-01-22张正敏

中国科技纵横 2021年23期
关键词:伦理人工智能测试

张正敏

(上海市质量和标准化研究院,上海 200031)

近年来,人工智能技术发展突飞猛进,除了在特定场景——如围棋等领域取得革命性突破外,在非特定场景的任务中——如无人驾驶也取得了长足的进步。前述这些应用属于较为正面的方面,但是一些不合理应用也给经济社会发展带来了许多问题,比如军用人工智能技术对于士兵乃至整个人类生命的威胁、情侣机器人对家庭伦理的挑战等,因此越来越多的人呼吁尽快开展人工智能伦理方面的研究。

1.文献综述

在人工智能伦理研究方面,欧盟较为领先。早在2015年,欧盟议会法律事务委员会(JURI)就决定成立一个工作小组,专门研究与机器人和人工智能发展相关的法律问题。2019年,欧盟委员会发布了由欧盟人工智能高级专家组撰写的《可信赖人工智能道德准则》,提出了实现“可信赖AI全生命周期框架”的3个基本要素(合法性、合伦理性、稳健性)、可信赖AI的基础原则、评估可信赖AI的关键要求及其实现等。美国人工智能伦理体系发展相对其技术发展水平而言相对落后。2016年,美国电气和电子工程师协会(IEEE)发布世界首个《人工智能道德准则设计草案(Ethically Aligned Design)》(Version 1)。美国美国防创新委员会发布军用人工智能伦理原则《人工智能原则:国防部人工智能应用伦理的若干建议》,提出了“负责、公平、可追踪、可靠、可控”五大原则。

其他国家、地区和组织中,2016年日本人工智能学会伦理委员起草了面向研究人员的伦理纲要草案;同年,英国标准行业协会发布业界首个关于机器人伦理设计的公开指标——《机器人和机器系统的伦理设计和应用指南》;2017年联合国发布了《机器人伦理报告》;2018年英国发布了《英国人工智能发展的计划、能力与志向》。2019年世界经济论坛发布白皮书《AI治理:将伦理规范纳入AI的整体方法》。在国内,2017年,国务院印发《新一代人工智能发展规划的通知》,明确提出要加强人工智能相关法律、伦理和社会问题的研究,建立保障人工智能健康发展的法治法规和伦理道德框架,到2030年中国建成更加完善的人工智能法律法规、伦理规范和政策体系。2018年,在国家人工智能标准化总体组的成立大会上,《人工智能标准化白皮书2018》正式发布,论述了人工智能的安全、伦理和隐私问题;中国发展研究基金会发布报告《未来基石—人工智能的社会角色与伦理》提出了人工智能伦理三问;2018年世界人工智能大会,国家主席习近平致信提出要抓住机遇,处理好人工智能在法律、安全、就业、道德伦理和政府治理等方面提出的新课题。

李升[1]通过研究50部人工智能伦理准则,认为目前现有的伦理研究基本上可以分为2类:人类中心主义、非人类中心主义,其中以人类中心主义为基本立场的伦理准则数量远高于非人类中心主义的伦理准则数量,并且提出了以“自主度”等级方法来解释与分析不同类型人工智能伦理准则数量差异的原因——非人类中心主义为核心理念的人工智能伦理准则都集中在了自主度等级为10级的区域,5~10级之间具有很多空白,这些空白区域亟待填充。然而,其并没有给出衡量“自主度”的方法。在人工智能领域,“道德图灵测试”(Moral Turing Test,简称MTT)一般被公认是可用于判断人工智能“是/否”拥有道德,基本做法是将AI与人类混在一起回答问题,如果提问者通过一组道德问题在一定概率上(例如70%)不能区分出到底是AI还是人类在回答问题,那么AI则通过MTT,可认为AI已具有道德能力[2]。然而作为一般性的通用方法,“道德图灵测试”并没有给出具体领域可供测试的问题集,目前也没有公认的问题集。杜严勇[3]在探讨助老机器人的发展前景时指出“在制定行业标准时,充分考虑不同类别的老人的不同功能需要与个性偏好,比如针对智障老人、高龄老人、失能老人等制定不同的标准,坚持评价标准的原则性与灵活性”“把纳斯鲍姆的10项能力作为对助老机器人的评价标准”[4],提出评价标准应在应用层面加以细化。从上述人工智能伦理方面的研究可以看出,目前人工伦理研究存在的争议主要集中在2个方面:(1)人类中心主义是否适当;(2)绝大多数伦理准则颗粒度太粗,无法细化和实施,本文针对这2个问题进行重点探讨。

2.伦理主体的演化与人工智能伦理地位的未来

辞海中关于“伦理”的解释是“人们相互关系的行为准则,或指具有一定行为准则的人际关系。”从上述注解可以看出,现代社会关于伦理对象的界定主要是“人”与“人”之间的相互关系。但是,如果时间回溯几千年,大家可以发现伦理的对象并非一直如此界定;如果放眼未来,可能亦并非如此(见图1)。

图1 伦理主体的演化

在奴隶社会,奴隶的地位基本与动物相似,根本没有社会地位,基本不被纳入伦理规范的范围,完全废除奴隶制、倡导人人平等也只是最近几百年发生的事情。之后,随着经济、社会的发展,动物的福利越来越为更多人关注。印度的甘地说,从一个国家对待动物的态度,可以判断这个国家及其道德是否伟大与崇高。美国汤姆·雷根(Tom Regan)认为,动物跟我们拥有一样的系统和起源,所有的生命主体在道德上都是一样的,都是平等的。因此不少人主张伦理规范的范围应该进一步扩大,人与动物的关系应逐步被纳入伦理道德规范的范畴。在此逻辑基础上,我们可以做进一步的推演:因为植物也是生物进化的一个分支,随着时间的推移,必将会有更多的人认为我们应该善待植物,把植物也纳入伦理规范的范畴。前述关于伦理对象的拓展,总体而言,还是基于碳基生物的。近年来,随着计算机、通信、人工智能等技术的快速发展,硅基事物也不断走入我们的生活,并且开始逐步挑战过去用于界定伦理的界限(智力水平、力量等),(1)随着科技的发展,人们发现人类自身其实是由双螺旋DNA编译而成的,而计算机是由0/1代码编译,从某种意义上来讲,人与计算机并无根本的区别;(2)听觉、视觉甚至是脑辅助等硅基设备与人逐步融为一体,半人半机器的“人”在享有伦理主体地位的同时,事实上也被硅基设备分享、蚕食伦理地位;(3)人工智能能力发展突飞猛进,从智能的层面不断赶超人类,使得以往人类引以为傲的智能、能力等独特优势不复存在,伦理主体的来源合理性受到挑战;(4)在现实社会中,沙特已经授予了人工智能“索菲娅(Sophia)”公民身份,日本赋予了AI“涩谷未来(Shibuya Mirai)”居住权,人工智能获得伦理主体地位已经在现实层面上取得突破。上述只列出了比较常见的一些理由,我们可以相信,随着人工智能技术不断渗透到经济、社会、生活各个方面,人工智能伦理地位必将不断得到加强。未来,随着科技的发展,物质、自然也将不断地被纳入伦理规范的范畴,实际上,在我国历史上,佛家、道家对于天人合一等理念已多有论述。

从上述分析我们可以看出,虽然目前只有较少部分的地区或组织主张非人类中心主义,但是随着未来人工智能技术的不断进步,各种形式的人工智能产品和技术逐步融入到我们的生活,非人类中心主义观念将不断被提出,并且关于人工智能伦理主体地位的探讨必然伴随着人工智能责任的分配和承担。当前,非人类中心主义现阶段还不是主流,主要是因为人工智能技术发展还不够充分,影响范围还不够大。我们需要做的是一方面加快人工智能技术的发展,另一方面秉承开放包容的态度,构建统一的框架,统筹人工智能现在与未来的伦理发展。

3.人工智能伦理标准体系建设路线图

3.1 发展阶段界定和顶层设计

借鉴GB/T 40429-2021《汽车驾驶自动化分级》中关于自动驾驶0~5级划分的总体思路,本文认为,对于人工智能伦理标准建设,也应在分级分类的基础上建立统一的框架和基准,明确行业和应用场景,确定人工智能伦理建设所处的具体阶段、应赋予的人工智能伦理地位、人工智能具体表现及应承担的责任等顶层内容。以医疗行业为例,可将人工智能伦理建设阶段分为:

(1)0级。应急辅助,如实施心跳自动监测,联网发送报警等;人工智能不承担任何责任。

(2)1级。检测辅助,辅助医生开展影像检查和分析,提供检测分析意见;人工智能不承担责任。

(3)2级。组合辅助,多场景、多功能的集成,提供面向病患的数据池和综合诊疗方案;人工智能承担极少部分责任。

(4)3级。有条件自动诊疗,在特定环境下,由人工智能系统主导诊疗,人类认为必要时,可介入。人工智能承担部分责任。

(5)4级。高级自动诊疗,一般环境下,主要由人工智能系统主导诊疗,人工智能认为必要时,申请人类介入。人工智能承担大部分责任。

(6)5级。完全自动诊疗,全程人工智能诊疗。人工智能承担全部责任。

一般认为当前国内外医疗行业的人工智能发展水平,主要还处于从0级向1级的过渡阶段,人工智能目前能够做的主要是辅助医生进行医疗影像资料的解读、基于大数据进行病因的解析、提供部分诊疗建议等。在厘清当前人工智能技术水平、所处阶段的基础上,可以认为,今后一段时间医疗领域人工智能伦理建设应以1级为主,适当做2级、3级层面的前瞻性标准布局和研究,引领行业的标准化发展。

3.2 中观建设内容

通过综合分析国内外人工智能伦理建设的指导思想、基本原则等相关内容,本文认为在明确本行业当前人工智能发展的阶段后,重点需考虑细化以下几个中观层面的内容,并将其落实到产品、过程和服务中:

(1)人工智能伦理立法。关注法律的时代性,构建人工智能时代下新法律体系,为人工智能伦理标准体系建设提供上位法依据。

(2)人工智能体的道德地位。根据人工智能发展阶段的不同,确定人工智能是否享有部分或同等伦理主体的权利和义务等。

(3)安全性。安全性包括数据安全、算法安全等。

(4)公平性。人工智能算法是否存在歧视性和偏见。

(5)透明性。透明性即人工智能技术方法是否可解析、可追溯、可控制。

(6)伦理标准。构建可信赖人工智能架构、测试和验证方法以及服务质量指标等。

3.3 底层测试和评价方法

测试和评价方法是落实人工智能伦理建设最基础的一环,本文通过分析图灵测试方法及汽车行业关于智能性的测试和设计方法[5]的总体思路提出,具体行业人工智能伦理水平测试应与责任地位相匹配,并且从低到高、从简单到复杂,依次测试人工智能系统的功能性、智能性、价值判断。

(1)功能性测试。功能性测试往往对应于0~2级的初级阶段。在这个阶段,重点测试人工智能系统在特定场景、特定任务中是否能够实现特定的功能。例如,以自动驾驶为例,以场景为基础,配置不同的任务目标,考察人工智能系统在单项任务、综合任务中的表现,由此判断人工智能的基本水平,这个阶段基本上人工智能仍然以自动化、模仿人类行为为主。

(2)智能性测试。智能性测试往往对应于2~4级的发展阶段。在这个阶段,重点测试人工智能系统在开放性场景中的类比能力、推理能力、抽象能力和情感能力等。可以参考人类测试智商、情商的方式,对系统进行开放场景测试,这个阶段的人工智能具有一定的道德主体地位,需要承担相应的责任。

(3)价值判断。价值判断往往对应于4~5级的高级阶段。在这个阶段,人工智能具有高度的自主性,可以类比自然人、法人,具有较高、甚至是完全的社会伦理地位。这个阶段,重点测试系统的道德认识、道德情感、道德意志、道德信念及价值观念,实现实然性价值关系与应然性价值关系的统一[6]。

3.4 其他相关工作

除了上述确定发展阶段、明确重点内容、细化测试和评价方法等方面外,鉴于伦理标准建设的复杂性和广泛性,下述内容也值得关注:

(1)测试平台建设。当前,人工智能测试手段和方法亟待突破。上述0~4级人工智能的功能性测试、智能性测试效果的好坏很大程度上依赖于包含单项、综合任务测试集的优劣程度,这就需要测评平台具有丰富多样的场景、数据;同时,为了提高测试效率,虚拟的测试平台也是未来重要的发展方向。

(2)数据共享。数据是行业发展的基础,多场景、多国别的数据对于人工智能的发展至关重要。行业主管部门和企事业单位应加大数据的融通工作,加强制度规范,建立数据有序开放交换平台,鼓励企业等单位开放自有数据、提供数据服务,引导形成安全、合规、高效的数据共享开放体系。

(3)教育与审查。人工智能伦理建设除了从人工智能方面着手外,人类社会的教育与审查也必不可少。人工智能伦理方面的教育和审查包括面向企业家、管理者、科学家、设计师、工程师等群体制定伦理规则,构建产品审查程序,建立伦理审查委员会等。

4.总结

本文主要探讨了当前人工智能伦理标准化建设中存在的人工智能伦理主体地位不清及伦理原则颗粒度太粗无法落实的问题,分析了伦理主体对象的演化过程,提出了基于分级分类方法的人工智能伦理建设阶段定位和测试评价方法,可为后续一段时期规划伦理标准建设重点方向和任务提供参考。

猜你喜欢

伦理人工智能测试
《心之死》的趣味与伦理焦虑
幽默大测试
护生眼中的伦理修养
“摄问”测试
“摄问”测试
“摄问”测试
2019:人工智能
人工智能与就业
数读人工智能
医改莫忘构建伦理新机制