APP下载

人工智能的伦理风险及对策研究

2023-02-23钱燕娜

关键词:伦理原则人工智能

钱燕娜

(国防大学政治学院,上海 201600)

随着人工智能技术的不断发展,它的无限潜能已成为当今世界的一大亮点,引发了一场前所未有的重大变革。中国正在把人工智能技术作为推进产业发展和实现经济腾飞的重要支撑,努力建设一个具有全球影响力的人工智能强国。中国应当采取多种策略,以实现人工智能技术的全面、多层次的发展,并对其可能带来的道德和社会影响进行深入的研究和评估,以便制定适当的法规和政策,以确保人工智能技术的可持续性和安全性。

一、人工智能的伦理风险样态

人工智能可能会面临三种伦理风险:关系紊乱、价值失衡和行为异化。这些风险可能会对人工智能的发展造成不利影响。

(一)伦理关系失调的风险样态

随着技术的进步,人工智能产品的相似性日益增强,使得人机之间的界限变得愈加模糊,而在这个新的时代,伦理学的研究也不断扩大,不仅仅局限于人与人之间的关系,还涉及到人与机器人、机器人与机器人之间的关系。人工智能的重要性已经不容忽视,它可以为社会带来巨大的变革,构建一个更加和谐的环境,促进共同的进步。一些学者甚至提出了一个深刻的思考:即使我们无法以物质或化学的方式获得真正的幸福,但我们也可以以积极的态度参与到社会的交流中去?维护和促进社会的交流与合作依旧至关重要?①参见谭九生、杨建武:《人工智能技术的伦理风险及其协同治理》,载《中国行政管理》2019 年第10 期。随着科技的发展,越来越多的研究表明,人类和机器之间的边界越来越模糊,从而导致了伦理关系的失衡。因此,在伦理学上,人们开始讨论如何将机器人作为伦理的主体,而非仅仅将其作为人类的工具。这就引发了一场关于人类和机器的伦理之争②参见刘继虎、王琛扬:《智能机器人法律主体地位之探讨》,载《重庆邮电大学学报(社会科学版)》2021 年第2 期。。尽管单一的形式模型可以提供一定的结构,但由于其缺乏因果关联,无法实现对意图的完整捕捉,因此,必须采用更加复杂的方法来构建出更加丰富的结构①John R.Searle,Minds,BrAIn,and Programs.3 Behaviroral &BrAIn Sciences 417(1980).转引自谭九生、杨建武:《人工智能技术的伦理风险及其协同治理》,载《中国行政管理》2019 年第10 期。。随着科技的进步,人工智能已经被认识到它在未来扮演重要角色。如果我们把它作为一个伦理主体,那么它将改变我们日常生活中的三种基本社会关系:人际、财富和权力。它还将影响我们的家庭和政治,改善我们的日常生活。因此,我们必须认识到,如果我们把它作为一个伦理主体,就必须采取行动来维护我们的道德和社会秩序。

(二)伦理价值失衡的风险样态

随着时代的进步,“人文价值观”一词已经成为一种普遍的社会道德准则,它强调了公平、正义、尊重和保护个人的基本权利。此外,它还强调了对人的尊重,认识到人的本质,并将其作为自身行动的基础。近年来,由于地区、行业和其他智能技术的不均衡发展,使得数字鸿沟日益扩大,算法歧视也变得越来越普遍,这给社会带来了极大的不利影响,严重制约了社会的可持续性和进步性,甚至有从“国家利维坦”②“利维坦”(Leviathan)原为《旧约圣经》中记载的一种海上怪兽,被称为“上帝所创造的恶魔”。自霍布斯撰写的《利维坦》问世以后,该词成为强势的国家(政府)的代名词。演变为“数字利维坦”的趋势,人文价值观作为社会伦理价值的基本取向,正面临着被解构的危机。人工智能技术的发展可能会导致社会伦理价值的失衡,这种失衡可以从两个方面来体现:

第一,公平的社会伦理价值观受到了严重的挑战。社会公平不仅仅是指生活上的平等,而是指每个人都应该按照法律规定享有同样的权利,并且应该尽自己的义务,这是一种基本的社会共识。随着人工智能技术的发展,拥有技术优势的个人和组织可以获得更多的资源和信息,但由于每个人的知识结构和技术掌握水平的不同,这些红利并不能均衡地惠及每一位成员,从而导致了“数字鸿沟”等现象的出现。随着人工智能技术的发展,它不仅促进了经济的发展,还造成了技术不对称,从而导致权利的不公平。此外,人工智能技术还可能导致国家权力的分散,从而阻碍人类社会的平等、自由和共享,但也可能带来“数字利维坦”的潜在风险。随着IT 的进步,“国家利维坦”被迫被限制,以促进国家的透明化和民主化,但“数字利维坦”却开始脱离人类社会,甚至可能对人类社会造成不可逆转的影响③郧彦辉:《数字利维坦:信息社会的新型危机》,载《中共中央党校学报》2015 年第3 期。。随着人工智能技术的发展,机器人的智能水平已经显著提高,但同时也带来了一定的危险,即人类可能会被智能机器人所控制、限制和奴役。因此,我们必须认真思考如何确保公正的伦理价值观得以实施。

第二,正义的社会伦理价值观受到了前所未有的挑战。古希腊哲学家亚里士多德将正义划分为三个不同的层面:分配正义、矫正正义和回报正义,而罗尔斯则进一步发展了这一理论,以更加全面地理解社会的现实状况。罗尔斯将正义定义为一种基于平等基本权利和自由的公正原则,以确保公平的分配④[美]约翰·罗尔斯:《政治自由主义》,万俊人译,译林出版社2000 年版,第242 页。;将矫正正义表述为“调节着基本分配正义问题的原则”⑤[美]约翰·罗尔斯:《政治自由主义》,万俊人译,译林出版社2000 年版,第243 页。。可以说,分配正义的核心是实现形式上的平等,这意味着要给予所有人应得的财富、权力和荣耀,而当这种传统的公平分配遭遇挑战时,矫正正义便成为一种可行的方法,它旨在通过适度地偏袒弱势群体,从而达到实现真正的公平。随着人工智能的进步,它不仅可以彻底颠覆传统的公平分配模式,还可以深刻地影响到当今社会的道德准则和价值观念。随着人工智能时代的来临,结构性失业问题受到了广泛关注,但由于个体差异,技术壁垒使得许多普通劳动者很难跨越,他们的劳动权利和尊严受到削弱,甚至可能被社会边缘化。因此,要想实现真正的公平分配,就不可避免地要求矫正正义,尤其是在这种大规模的公平分配失衡的情况下。随着科技的发展,人工智能技术的发展正在改变着我们的生活。过去,技术的主导地位一直被拥有技术优势的个人、机构和政府所控制,导致技术垄断的局面。但是,当前的IT 时代,技术不再是唯一的财富,社会的财富分配也发生了变化。

(三)伦理行为异化的风险样态

人工智能技术还存在导致人类伦理行为异化的风险。主要体现在以下三个方面:

第一,导致人类出现获取信息的路径依赖。随着人工智能技术的不断发展,它为人们提供了更多的信息来源,使得人们能够更有效地搜寻、分析、处理各种信息,从而更好地掌握自身的需求。此外,企业也利用人工智能分析工具,更加准确地把握消费者的兴趣、宗教信仰、价值观念,实施更有针对性的信息推送。从短期的角度来看,这种信息获取的方式确实让人们的日常生活变得更加便利,然而,如果持续下去,就可能导致人们对数据的偏见和依赖。

第二,导致人类社会出现群体极化的行为。凯斯·桑斯坦曾经指出,网络可能会成为一个“温床”,因为它让志同道合的人可以在网上轻松地交流,但却无法接受不同的观点。如果长期处于极端的立场之中,接受这些人的观点,就会让人们慢慢接受这种观点,并且更加认同它们①[美]凯斯·桑斯坦:《网络共和国》,黄维明译,上海人民出版社2003 年版,第51 页。。人类社会中出现群体极化行为的原因可以归结为两大方面:一是由于网络群体内部的同质性较强,容易引发激烈的冲突,从而导致个体之间的矛盾演变成社会群体甚至社会阶层之间的矛盾②参见郧彦辉:《数字利维坦:信息社会的新型危机》,载《中共中央党校学报》2015 年第3 期。;二是随着人工智能技术的进步,人类的信息收集与处理能力面临巨大的考验。传统的信息收集模式使得人们更容易被虚假、不准确的信息所左右,从而导致社交网络的分裂。为了保护公众的利益,我们应该加强对信息收集的管控,以确保社交网络的安全性。

第三,造成人类社会出现群体隔离的现象。由于当前的人工智能技术的发展,使得人们能够更加便捷地与其他人建立联系,从而避免了传统的社会群体隔离。这种联系的形式表现为“互动交往”,也就是说,人们能够更加轻松地与其他人建立联系,而无需参加任何社会活动。如果人工智能技术的进步达到了可以让人们进行有效沟通的水平,那么人际关系的紧张程度就可能大大降低,甚至完全消除。由于各种社会个体的知识结构、技术掌握水平和对IT(包括人工智能)的把握程度有所不同,使得当前的阶级划分无法完全依据这些差异来实现,而且,由于数字鸿沟的日益扩大,这种依据技术把握水平来划分社会群体的做法也变得越来越普遍。因此,人工智能技术可能会引发社会中不同阶层之间的道德差距,从而产生伦理上的偏见。

二、人工智能伦理基本原则的确立

“原则”一词源自拉丁语“原理”,弗里德曼指出,它是一种超级规则,可以用来制定其他规则,也就是说,它是一种规则模式或模型。“原则”是一种标准,它可以用来衡量其他规则的价值和效力。“原则”提供了一种抽象的概念,它将许多细微的规律汇集起来,形成了一个普遍的、宏观的框架③参见[美]劳伦斯·M.弗里德曼:《法律制度》,李琼英、林欣译,中国政法大学出版社1994 年版,第46 页。。因此,要想深入理解人工智能伦理的基本原则,首先必须明确它们的界定标准。

人工智能伦理的基本原则必须具备高度的概括性、广泛的适用性以及独特的实践意义。这些原则必须包括:一方面,它们必须充分考虑人类与人工智能之间的相互影响,以及它们在社会环境中的行为方式;另一方面,它们必须具有明确的目的,以便在实践中有效地实施;此外,它们还必须具有可操作性,以便在不断改进的情况下,有效地满足社会的需求;最后,它们必须具有可持续的发展潜力,以满足社会的期望,并且具有可持续的可操作性。不论是在科技伦理领域还是其它伦理学领域,都应该遵循一些共同的准则和原则。

(一)以人为本原则

基于“以人为本,科技向善”,我们应该构建一种以人类为中心的人工智能伦理框架,它将有助于解决人工智能伦理问题,并且成为整个科技伦理领域的核心指导思想。我们必须坚定地把人类利益放在首位,并且坚定地追求可持续发展,从而使科学技术能够更好地服务于人类,从而使我们的未来更加美好。重视将人类的利益放在首位,科技伦理的核心是要让科学技术成为促进人类进步和发展的重要力量,因此,“以人为本”和“以人为本”的理念都强调了保护和维护人类的基本利益,以及实现可持续的发展。而“以人为本”和“以人为本”的理念,则更加强调了对人工智能的尊重,它们既要求人们拥有自主的行为权,又要求人工智能,特别是类人机器人,不得以任何方式来压制、欺诈、操控和控制人类,从而实现真正的人工智能保护和维护人类的基本利益。尊重人类的自由不仅仅是针对人工智能,而是要贯彻到医疗、社会、文化、道德等各个层面,以此来维护和促进社会的和谐与发展。在人工智能伦理的框架下,“特殊性”与“普适性”都被认为是对人类的最高权利、可持续发展和尊重个体自由的最佳表达,它们构成了一个完整的伦理体系,为人们提供了一个更加公平、公正的环境,使得人们在使用人工智能时更加安全、舒适。

(二)公平原则

尽管理论界对于应用伦理学的基本原则存有争议,但对于“公平原则”并无异议。人工智能算法的不可解释性、歧视性等特征使“公平原则”在人工智能的研发、使用和治理过程中显得尤为重要,因而有诸多学者认为该原则应当作为人工智能伦理的基本原则。从人工智能应用的实际运行情况来看,算法歧视、不同群体在人工智能技术获取方面存在差异等问题的确存在,且日趋引起社会重视。正如前文就“公平原则”的简要分析所言,世界各组织、各国或地区及其学者针对人工智能的特点赋予了“公平原则”以新的内涵。但人工智能伦理基本原则应当具有“特殊性”,“公平原则”作为应用伦理学的基本原则,人工智能伦理问题的治理自当遵循该原则,无须再重复确立为人工智能伦理的基本原则,类同于民法的基本原则无须再同时确定为物权编等下属分支的基本原则。此处并非否定在教学或研究过程中对公平原则的新内涵给予关注,也并非否定将该原则写在立法中①参加孙占利:《论电子商务法的基本原则——以全球电子商务立法为视角》,载《现代法学》2008 年第3 期。。“公平原则”的新内涵反映了人工智能在伦理问题中的部分特征,理应予以充分关注,只是基本原则的“特殊性”要求不应在理论上再重复将其确立为人工智能伦理的基本原则。

(三)透明度原则

“透明度原则”被认为是人工智能算法的核心准则,它强调了人工智能在实践过程中应遵守的道德准则,而“黑匣子”则更加强调了人工智能在实现复杂任务时应遵守的道德准则,以及人工智能在实现复杂任务时应遵守的道德准则。“高度性”提出了一些基本的准则,而“透明度原则”却没有提供这些准则。“透明度原则”更加重视人工智能系统的公开、解释、审核以及验证,以及提高它们的可理解性、可解读性、可验证性、可预测性,以及更好地传达和披露相关信息。虽然“黑匣子”的实施可以帮助解决人工智能算法的一些挑战,但它的本质目的在于建立人工智能系统的安全性、可控性和可靠性,而“透明度原则”则无法完整地体现这一理念,因此,在实施人工智能原则时,必须兼顾技术本身以及科技与人类之间的关系。

(四)隐私保护原则

“隐私保护原则”一直是人工智能伦理领域的重点关注对象,因为它的运行依赖大量的数据,如果没有进行适当的数据处理和过滤,就很容易导致个人信息的外泄。“隐私保护原则”与“高度性”、“普遍性”和“特殊性”并无关联,这是一个显著的差异。“高度性”旨在帮助解决由人工智能带来的个人信息泄露问题,它在某种程度上可以为人工智能的伦理和规范制定提供参考,然而,“隐私保护原则”却未能完整地体现“人本主义”的核心思想与价值观。人本主义旨在维护人类的尊严和价值,但“隐私保护原则”只是对人的权利进行了有限的保护,“隐私保护原则”则未能有效地应对当前的人工智能伦理问题,比如类人机器人的“欺骗性”、人工智能带来的结构性失业等,“隐私保护原则”则未能有效地应对这些挑战。“特殊性”和“隐私保护原则”都是关于人工智能伦理的重要法规,但它们不是一个完整的体系,因此,在利用大数据、区块链以及AppAP 时,隐私保护的重要性也是不容忽视的。因此,“隐私保护原则”与“高度性”、“普遍性”和“特殊性”的期望存在较大差距。

三、人工智能伦理风险的控制对策

针对人工智能的伦理风险,我们可以借助于其所拥有的基本原则来进行指导,但是,这些原则只是一种表面的准则,而要想真正有效地管控和预防这类风险,就必须建立一套完善的法律体系,以便从技术开发、使用和管理等环节,都可以得到有效的约束。

(一)增设人工智能伦理审查小组

为了有效地管控人工智能的伦理风险,许多全球领先的科技公司都建立起一套完善的伦理审查机制,以确保未来的产品符合道德标准。微软公司就建立了一个由该公司负责的伦理审查委员会,以确保未来的所有产品都符合道德标准;谷歌公司更是特别建立了一个由该公司负责的伦理审查小组,以确保未来的产品符合道德标准,从而确保公司的可持续发展。我们将对人工智能的新项目、产品和交易进行严格的伦理审核。目前,我们的企业内部设有一个专门负责管理人工智能的伦理委员会。这个机构的主要目标是为了确保人工智能的安全、公平、隐私得到有效的保障,同时也为了让它们遵守相关的法律法规和道德准则①参见曹建峰:《人工智能伦理治理亟需迈向实践阶段》,载微信公众号“数字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/lrUFqS_IDHZeeSfqBjdw-WQ。。与传统的科学技术发展带来的道德风险形成鲜明对比,人工智能的道德风险不仅涉及到更多的领域,而且还具有极高的威胁性,甚至可能引发毁灭性的后果。为此,2020 年10 月,中华人民共和国政府设立了国家科学技术EC,以构建一个完善的、具有指导性的、统一的、公平、公正、合理的科学技术道德管理体系②参见科技日报评论员:《科技伦理的底线不容突破》,载《科技日报》2019 年7 月26 日,第1 版。。为了保护人工智能的伦理价值,我们建议在国家科技伦理委员会下成立一个审查小组,并赋予它独立的法律地位,以便更好地规范各方的权利和义务,并为受害者提供救济途径。

为了确保人工智能伦理审查小组的独立性,我国应当加强对其法律地位的认识,并制定相关的法律法规,以确保其在医学领域的合法性和权威性。此外,应当加强对伦理审查小组的监督。从目前涉及伦理审查委员会的法律文件来看,除《基本医疗卫生与健康促进法》③参见《基本医疗卫生与健康促进法》第32 条第3 款。《药品管理法》④参见《药品管理法》第20 条。《医疗纠纷预防与处理条例》⑤参见《医疗纠纷预防与处理条例》第11 条。等对此有原则性规定外,具体规定主要集中在《涉及人的生物医学研究伦理审查办法》(以下简称《伦理审查办法》)中。值得注意的是,《伦理审查办法》①参见《涉及人的生物医学研究伦理审查办法》第5 条、第7 条第1 款。规定了国家卫生行政部门是伦理审查委员会的监督部门的同时,又将其下属机构(从事医学研究的医疗卫生机构)作为伦理审查委员会的管理责任主体,如此一来,医学领域的伦理审查委员会与被审查对象实际上形成了“自我审查、自我监督”的逻辑结构,能否实现真正的伦理审查目的值得反思。因此,为了保护人类的根本利益,特别是对于人工智能项目和产品,国家应该赋予科技EC 独立的法律地位,以确保其公正、公平、公开地进行审查,避免受到国家公权力的侵害。

人工智能伦理审查小组应当制定严格的伦理标准和流程规范,涵盖基础设施、数据处理、应用服务、安全隐私等方面,并建立完善的案例、程序、工具、资源等,以便更好地指导和管控人工智能项目、产品和交易,确保其符合道德标准,保障公众利益②参见曹建峰:《人工智能伦理治理亟需迈向实践阶段》,载微信公众号“数字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/lrUFqS_IDHZeeSfqBjdw-WQ。;为了更好地管理人工智能的R&D,我们需要建立一个严格的伦理标准评估体系,以便及时、动态地评估整个R&D 过程中的伦理风险;此外,还需要加强对科技企业内部的伦理风险控制,以确保其关键决策(如数据集的选择、算法的选择)的正确性、可靠性,并且建立一个完善的回溯机制,以便及早发现、及时处置可能出现的伦理安全风险③参见《网络安全标准实践指南-人工智能伦理安全风险防范指引》(TC260-PG-20211A)。;为了确保人工智能的可持续性和安全性,我们应该定期组织伦理培训,以加深R&D 者对相关伦理标准和流程的了解,并且增强他们的道德意识,以便他们在弱人工智能时代也能够遵守相关的道德准则。为了确保人工智能的安全、高效、可持续发展,科技伦理委员会应该建立完善的法律制度,并且要求其成员承担起自身的义务,以便在技术、法律、伦理等多方面都得到充分的认可。此外,还需要对其进行严格的伦理审查,以确保其合规性④参见曹建峰:《人工智能伦理治理亟需迈向实践阶段》,载微信公众号“数字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/lrUFqS_IDHZeeSfqBjdw-WQ。。

鉴于目前我国医疗卫生领域的伦理审查体系缺乏有效的规范,使得权利人难以获得必要的救济。因此,为了保障他们的合法权益,政府有必要建立一套完善的法律体系,以便对科技伦理审查进行有效的监督和管控,以保护他们的合法权益。因为伦理审查的复杂性和专业性,尤其是在人工智能领域,它需要掌握大量的数学、计算机科学和编程技术,因此,我们强烈建议提高国家科学技术EC 的职责,以便解决与之相关的纠纷。为了确保人工智能、基因编辑技术和辅助生殖技术的伦理审查结果得到有效的执行,我们强烈建议在国家科技EC 中设立一个特殊的机构,以便对这些技术带来的伦理问题进行有效的讨论和裁定,以确保不同技术领域的伦理标准能够得到有效的协调和实施。

(二)塑造人工智能伦理标准认证体系

为了确保人工智能的安全性、可靠性、负责任性,IEEE、ISO 等正在积极推动,不断完善人工智能的伦理标准,并采取一系列的认证措施,以确保人工智能的安全性。因此,我们应当积极推动人工智能的伦理标准的完善,加快推出更多的伦理认证项目,以求达到更高的社会认可度⑤参见曹建峰:《人工智能伦理治理亟需迈向实践阶段》,载微信公众号“数字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/1rUFqS_IDHZeeSfqBjdw-WQ。。关于伦理标准认证体系的建立,需要采用“两步走”的策略:

2020 年,中央网信办、国家发展改革委、科技部、工业和信息化部联合发布《国家新一代人工智能标准体系建设指南》,为了更好地促进人工智能发展,实现其伦理标准的统一,我们必须首先确立一套完善的人工智能伦理标准,并将其纳入国家规范的管理框架中,从而实现人工智能发展的有效性。根据本指南的规划,到2021 年,我们将建立一个完整的人工智能标准体系,以更加细致地研究和分析每一个标准的含义,明确它们之间的关联,以期促进人工智能标准的进一步完善和发展。针对人工智能伦理标准的制定,我们将对20 项以上的重点标准进行深入研究,特别是在医疗、交通、应急救援等特定行业,更加突出伦理标准的实施,以期达到更好的效果。为此,我国将借鉴国内外有益经验,汇集多方力量,结合技术专家、法学专家、伦理学专家、标准化专家等,分层、分类、分领域,制定出更加完善的人工智能伦理标准,以期达到更好的效果。特别是在医疗、交通、应急救援等特殊领域,应迅速制定人工智能伦理标准,以确保公平、公正的发展。

第二步,我们需要清楚地界定人工智能的伦理标准,包括其目的、内容和流程。我们必须始终把保障人类的基本权益放在首位,并且严格遵守相关法律法规,避免使用人工智能产生的道德风险。除了遵守国家规范,还应该对参与者进行严格的审查,以确保他们的行为符合道德规范,特别是对于那些致力于保障人类基本权益的人工智能项目。IEEE 在《人工智能设计的伦理准则》(Ethically Aligned Design)中提出“福祉指标”,以确定智能和自动化是否能够有效地改善人类的福祉,并且明确指定衡量标准。虽然传统的正面指标如利润、职业安全和财政健康等具有一定的参考价值,但它们无法覆盖个人或社会的全面福祉。研究显示,心理、社会和环境等多种因素都会对人类的幸福感产生深远的影响,因此,构建一套完整的幸福指标体系,既可以更精准地评估科学技术的进步,又可以及时发现可能危及幸福感的潜在风险,为社会发展和科学进步提供有力的参考依据①IEEE 自主与智能系统伦理全球倡议项目:《〈人工智能设计的伦理准则〉(第2 版)概要》,载国际科研合作信息网2018 年9月28 日,http://www.ircip.cn/web/993898-993919.html?id=26645&id=26645&newsid=977189。。“福祉指标”为我国推动人工智能伦理标准认证项目提供了一个重要的参考,其认证程序包括申请准备、现场考察、审查以及结果通知四个步骤,可以有效地帮助我们更好地实现人工智能伦理标准的认证。首先,申请准备是认证过程中的第一步。这一步包括两个部分:预申请和正式申请。在预申请阶段,申请人应该向有资质的机构提交一份完整的人工智能项目审核报告,以便获得认证。通过这一步,申请者可以更好地了解自己的情况,并且更有信心地提交正式的申请。其次,鉴于人工智能伦理风险的普遍性和严重性,认证机构有责任对所有参与者进行全面的考核,以确保其符合法律法规要求,包括但不限于实地检查、采访和审核有关项目的文件材料。再次,经过认证审查,认证机构将对申请者提交的书面材料和实地考察结果进行综合评估,以确定是否符合要求。根据评估结果,可将其分为不符合标准、基本符合标准和完全符合标准三种类别。认证机构应当仔细审核和记录所有的评估报告,并将其完整地保存下来。最后,确保认证结果及时传递给申请者,以便及时获得有关信息。同时,为了确保人工智能伦理标准的认证质量,建议每一次审核都要按照规定的期限进行,以确保最终的审核结果符合要求。

(三)建立人工智能产品伦理控检机制

为了有效地管控人工智能的伦理风险,我们不仅需要成立一个专门的伦理审查小组,建立一套完善的伦理标准认证体系,而且还必须建立一套严格的伦理控检机制。此外,为了有效地防范和减少这类风险,我们可以利用区块链、无线射频识别技术和大数据等信息技术,从源头上进行严格的监督,同时也要建立一套完善的风险预警、定期抽检和产品召回等制度。区块链是一种去中心化的数据存储技术,它将数据块按照时间顺序进行线性排列,并且可以无限增长,从而实现数据的安全性和可靠性,它可以记录和传输所有的信息,从而为用户提供更加安全、可靠的服务。区块链技术采用了非对称加密算法(哈希算法),这种加密方式可以将记录的信息准确地传输到每个主体的客户端,并且保证每个人只能对自己的账户进行更改,从而提高了安全性和可靠性①参见孙芳:《数据区块链技术对财务、会计及审计行业的影响》,载《中国战略新兴产业》2017 年第3 期。。通过使用区块链,我们发现它既可以追踪历史,又不会被篡改。这样一来,我们就可以确保每一个节点都是真实的,并建立一种新的、分布式的信任系统。RFID(射频识别)是一种高效的自动识别技术,它通过无线电波来检测特定的目标,并且在没有机械或光学干扰的情况下完成识别。因此,RFID在当今的物流领域中被广泛应用。

通过利用区块链、无线射频识别和大数据等先进的信息技术,我们可以将各种人工智能产品的相关资料完整地存储起来,同时还可以精准地定位、跟踪和追溯这些产品的来源。从人工智能产品的开发阶段起,就要赋予它们特定的编码,同时,要把它们的基本要求、数据处理要求、硬件设备要求、应用服务要求、安全隐私要求等信息记录到RFID 芯片上,从而使它们的功能更加完善、更加高效。通过采用区块链作为核心技术,我们将建立一个由RFID 芯片组成的后台数据库,一旦该产品被部署,其所有的数据就将被记录并存储,这样就可以通过区块链的可追溯性和不可篡改性,有效地追踪和管理从R&D 到应用的整个过程。政府有责任加强对人工智能的监督和管理,建立有效的风险评估和预警体系,将人工智能的伦理风险划分为四个等级:极端危害、严重危害、普通危害和轻微危害,并且要求各个等级都有完善的应对措施。政府应该采取有效措施,建立完善的智能化系统,定期检测和跟踪人工智能产品,及时发布风险预警,以便及早采取有效措施;为了确保人工智能产品质量,我们需要利用信息共享平台,让监管人员实时跟踪和定期抽查。此外,我们还需要利用区块链和RFID 技术,将人工智能产品的数据进行电子化记录和溯源,以及建立一套完善的伦理控检机制,以有效地预防和减少其在整个使用寿命中可能存在的伦理风险。技术和法治的结合是一项艰巨的任务,必须由各方参与,共同努力才能实现。

猜你喜欢

伦理原则人工智能
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
2019:人工智能
人工智能与就业
坚守原则,逐浪前行
数读人工智能
下一幕,人工智能!
无罪推定原则的理解与完善
医改莫忘构建伦理新机制
婚姻家庭法的伦理性及其立法延展