生成式人工智能应用的伦理立场与治理之道:以ChatGPT 为例
2024-04-10冯子轩
冯子轩
目 次
一、生成式人工智能应用的伦理规范现状
二、生成式人工智能应用的多重伦理困境
三、生成式人工智能应用的人本主义伦理立场
四、人本主义立场下的生成式人工智能应用的伦理治理机制
五、结语
智能,是一种普遍的心智能力,包括推理、计划、解决问题、抽象思考、理解复杂概念、快速学习和从经验中学习的能力。智能并不局限于某个特定的领域或任务,而是包含了广泛的认知技能和能力。人工智能是对人类智能的模拟与延伸。近年来,以ChatGPT 为代表的生成式人工智能,通过对海量文本数据集进行训练,使机器拥有强大的语言理解和文本生成能力,〔1〕参见杜雨、张孜铭:《AIGC:智能创作时代》,中译出版社2023 年版,第6 页。可以对人类输入内容产生高质量会话自动纠正错误,能解决跨越语言、数学、编码、视觉、医学、法律、心理学等领域的问题,类似产品如谷歌公司的PaLM〔2〕Aakanksha Chowdhery et al., Palm: Scaling language modeling with pathways.arXiv (Oct.5, 2022), https://arxiv.org/pdf/2204.02311.pdf, accessed July 4, 2023.和LaMDA〔3〕Romal Thoppilan et al., Lamda: Language models for dialog applications.arXiv (Feb.10, 2022), https://arxiv.org/pdf/2201.08239.pdf, accessed July 4, 2023.、我国百度公司的“文心一言”、阿里公司的“通义千问”等。与此同时,该项技术也引发了人工智能伦理问题的争议。例如,ChatGPT 可以辅助研究工作,在应用中会产生抄袭、剽窃、数据造假、实验造假等学术不端行为,已被部分教学科研机构禁用。〔4〕参见朱永新、杨帆:《ChatGPT/生成式人工智能与教育创新:机遇、挑战以及未来》,载《华东师范大学学报(教育科学版)》2023 年第7 期,第9 页。OpenAI 承认,GPT—4 与早期的GPT 模型有类似的局限性,它本身并不是完全可靠的,存在偏见、虚假信息、隐私、过度依赖等风险。
本文将观察生成式人工智能应用的伦理规范现状,归纳其在实际应用中所产生的伦理问题,探索其伦理规范体系的建构立场与具体进路。当前,生成式人工智能存在侵犯个人基本权利、继承人类现有错误价值观、依赖基于拟态环境输出结果、常识悖论等伦理困境。基于自然语言处理与机器强化学习等技术的发展,需要场景化建构生成式人工智能应当遵循的基本伦理原则,并提出治理策略,为增进人类福祉和推动构建人类命运共同体提供有力的科技伦理支撑。
一、生成式人工智能应用的伦理规范现状
以ChatGPT 为例,其核心技术以预训练、大模型、生成性为特征,从人类反馈中强化学习,〔5〕Chengwei Qin et al., Is ChatGPT a General-Purpose Natural Language Processing Task Solver?, arXiv (Nov.19, 2023), https://arxiv.org/pdf/2302.06476.pdf, accessed July 4, 2023.通过大规模的参数量和数据量,细致链接到人的需求,最终生成输出结果,实现对人类认知机制的深度模拟。生成式人工智能也具有对其生成答案的评判能力,实现捕获用户意图、智能交互对话、文本生成、文献爬取等功能。〔6〕参见杜雨、张孜铭:《AIGC:智能创作时代》,中译出版社2023 年版,第6 页。有学者认为,ChatGPT 是人工智能技术在拟真度和功能维度上的“里程碑”,其拥有丰富的背景知识和强大的归纳能力、对形势的判断客观清晰、规划设计稳健合理、作出决策冷静快捷、采取行动精准有力、工作时间更长、资源消耗更少,还能通过反馈和学习自动纠错、自主升级,相对于人的智能优势或将持续扩大。〔7〕参见李伦主编:《人工智能与大数据伦理》,科学出版社2018 年版,第265 页。具备强大能力的生成式人工智能应用引发了社会普遍忧虑,主要源于ChatGPT 等技术的“盲区”引发了多重伦理冲突,各国也相继开展有针对性的伦理规范探索。
(一)国际组织层面生成式人工智能应用的伦理规范现状
国际组织层面主要以伦理倡导性规范为主。2018 年6 月,G7 峰会通过了《人工智能未来的共同愿景》,涉及的伦理原则包括以人为本、增进信任、保障安全、保护隐私,初步明确人工智能发展过程中应遵循的伦理原则。此后,无论是联合国教科文组织通过的《人工智能伦理问题建议书》,〔8〕参见《联合国教科文组织呼吁尽快实施人工智能伦理标准》,来源:https://baijiahao.baidu.com/s?id=1761872144108353042&wfr=spider&for=pc.,2023 年12 月23 日访问。还是世界互联网大会以“人工智能时代:构建交流、互鉴、包容的数字世界”为主题进行的探讨,〔9〕参见赵秋丽等:《世界互联网大会数字文明尼山对话在曲阜开幕》,载《光明日报》2023 年6 月27 日,第4 版。多集中于一般人工智能应用领域,目的是在人工智能研发与应用的伦理领域凝聚共识,宣示意义较强,对细分领域关注不多。
(二)主要发达国家和地区生成式人工智能应用的伦理规范现状
欧盟的伦理审查特色鲜明。在ChatGPT 问世前,欧盟就一直在推动基于风险分层规制的人工智能伦理治理模式。ChatGPT 问世后,欧盟高度重视生成式人工智能引发的伦理问题,力图通过政策和法律手段推动相关伦理审查,实现对生成式人工智能应用的研发、市场准入、用户合法权益保障等问题的监督和管理。欧盟于2023 年6 月发布《人工智能法案》,将ChatGPT 归类至“高风险”技术,提出对这类“高风险”技术进行必要且全面的伦理审查,以降低风险,确保用户的自主性、公平对待与隐私。〔10〕参见张璐:《通用人工智能风险治理与监管初探——ChatGPT 引发的问题与挑战》,载《电子政务》2023 年第9 期,第17 页。欧盟主张人工智能应当符合人类伦理,不应背离人类基本道德和价值观,较之一般人工智能,欧盟对生成式人工智能的伦理审查机制更为审慎,强调基本伦理秩序维护与公民基本权利保护。
美国既鼓励生成式人工智能等新技术的发展,同时也以政府命令的方式对其开展跟踪监管,是一种鼓励与监管并行的伦理治理模式。美国一向关注科技企业创新,生成式人工智能技术实现重大突破后,美国政府及其咨询机构就ChatGPT 相关问题密集发布了数份文件,〔11〕例如2023 年1 月,美国国家标准与技术研究院(NIST)公布《人工智能风险管理框架》,指导机构组织降低在开发和部署人工智能系统过程中的安全风险,避免产生偏见等负面后果,提高人工智能可信度,保护公民的公平自由权利;2 月,美国总统拜登在签署的一项行政命令中,要求联邦政府在设计和使用人工智能时,应避免受偏见、算法歧视等危险的威胁;4 月,美国商务部下设的国家远程通信和信息管理局发布一项关于AI 可归责性政策文件的征求意见稿,其中涉及生成式人工智能在信息扭曲、深度伪造、隐私侵犯和虚假信息等方面的人工智能系统问责政策;6 月,美国政府为制定《国家人工智能(AI)战略》征求意见,部分内容聚焦保护人权、促进公平公正等方面。参见黄日涵、姚浩龙:《被重塑的世界?ChatGPT 崛起下人工智能与国家安全新特征》,载《国际安全研究》2023 年第4 期,第86 页;毕文轩:《生成式人工智能的风险规制困境及其化解:以ChatGPT 的规制为视角》,载《比较法研究》2023 年第3 期,第166 页。旨在保障公民自由、公平等宪法权利不受算法歧视等风险的侵害,并对新技术应用造成的信息扭曲、深度伪造、隐私侵犯等问题建立问责系统。ChatGPT 问世后,美国鼓励发展ChatGPT 等生成式人工智能,但并没有对其“网开一面”,对伦理问题的重视程度明显超越以往。多份文件提出确保人工智能的合伦理性、可信赖性,以及对公民个人信息、隐私、公平、自由等合法权益的保障,体现了美国在应对生成式人工智能发展问题中的人本主义立场,并在联邦政策与法律框架制定中有所表达。
英国早在2018 年便提出五大伦理原则,〔12〕五大伦理原则,即为了公共利益发展AI、可理解性与公正原则、保护隐私权与数据权、利益共享,以及不伤害不破坏不欺骗原则。参见吴红、杜严勇:《人工智能伦理治理:从原则到行动》,载《自然辩证法研究》2021 年第4 期,第50 页。体现出浓厚的人本主义色彩。近期,该国就ChatGPT等生成式人工智能采取的伦理规范措施具有较强的针对性。例如在教育领域,英国多所高校严格限制ChatGPT 等生成式人工智能在撰写论文等学术活动中的应用,违者面临开除等严厉处分。〔13〕参见宋信强:《GPT—4影响的全面分析:经济高质量发展与国家安全防范》,载《广东财经大学学报》2023年第2期,第109页。英国也重视ChatGPT 等生成式人工智能的应用监管问题,其中的维护市场秩序、保障相关消费者合法权益、禁止学生于学术活动领域利用等观点体现了英国对公平、正义等基本权利和伦理规范的尊重。
(三)我国生成式人工智能应用的伦理规范现状
我国人工智能伦理规范属建设初期,仍在探寻安全与发展的平衡方案。当前,我国高度重视生成式人工智能应用的伦理问题,为应对这一新技术对法律伦理与秩序带来的冲击,多部委联合发布《生成式人工智能服务管理暂行办法》,要求生成式人工智能应尊重社会公德与伦理道德、坚持社会主义核心价值观、防止歧视、保证准确可靠、尊重他人合法权益等。〔14〕参见《生成式人工智能服务管理暂行办法》第4 条。在地方层面,以《深圳经济特区人工智能产业促进条例》为例,明确设置人工智能伦理委员会,鼓励企业利用技术防范伦理安全风险及合规风险。总体而言,我国正在探索央地联动、各方参与的伦理治理方案,先后规定了科技伦理委员会机构设置,颁布了伦理原则指引,逐渐形成以人为本、反对偏见与歧视、提升透明度等要求的伦理规范。长远看,我国相关伦理体系建构仍需在组织架构、程序设计、标准统一和责任承担等方面予以完善。
二、生成式人工智能应用的多重伦理困境
生成式人工智能的出现正在深刻影响着现有人工智能伦理规范的形态与进路。一方面,生成式人工智能技术的应用对人类在既有人工智能伦理规范中的主体地位造成冲击,造成伦理秩序的两难。“人工道德行为体”(artificial moral agent),指承担不同程度道德责任的人工智能体,是伴随人工智能技术发展而产生的新概念。人工智能产品迅速进入生活场景中,其显现的伦理后效使我们必须在理论层面、制度层面予以回应。如果不承认智能体的道德主体地位,就会出现责任主体缺位问题,人工智能治理框架的构建将变得困难;如果承认其道德主体地位,则又会对人本主义的伦理秩序造成巨大冲击。另一方面,既有伦理规范原则性较强,倡导性内容铺陈较多,难以完全适应生成式人工智能技术新发展,无法切实解决其在应用过程中产生的对拟态环境过度依赖等新问题。人机共存社会中,人工智能的工具属性声明应当转变为行动规范,要求人工智能尊重人类社会的价值、规范和法律,造就人本主义在智能时代的新发展形态。当前,人本主义不彰引发的生成式人工智能伦理困境趋于明显。
(一)削弱人类主体价值
在人本主义的伦理立场下,人类被赋予了某种固有价值或价值优先,伦理秩序围绕着人类展开,伦理建构以“人类塑造世界”为核心。但在人机共存的社会中,人工智能正在成为具有一定自主道德行动能力的实施者,并且人工智能极易通过信息输出去分析、识别和塑造人的观念与认知体系,引发“人工智能塑造人类”的结果,作为目的的人类主体性将会遭受挫折。再者,由于个体对人工智能的应用能力有差别,与“数据鸿沟”类似,“人工智能鸿沟”的出现或将加剧社群内部分化,部分弱势群体或将面临智识的淘汰,又或是成为算法霸凌的受害者,动摇普遍意义上的人本主义立场,对人类被赋予的隐私价值、劳动价值等固有价值或价值优先的伦理立场造成较大冲击。例如,在隐私价值方面,智能系统会收集沟通信息、社交信息、技术信息、日志数据、使用数据等多方面个人信息,进而对个人信息进行跟踪与分析。即使训练语料库中没有个人敏感数据,但生成式人工智能通过人机交互有可能推断出隐私信息,这样就很容易越过“知情同意原则”,创建包含真实和敏感信息的个人画像,间接违反最小必要原则。《生成式人工智能服务管理暂行办法》重点规范提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务,不得非法留存能够推断出用户身份的输入信息。这也说明了,合理合规采集使用用户的个人信息是当前亟须解决的棘手问题。又如,在劳动价值方面,人工智能对就业会产生负面影响,部分研究关注到人工智能对低端劳动者的就业威胁最大,重复性劳动易被人工智能替代。〔15〕参见张学英:《人工智能下的劳动就业迭代及人力资本投资》,载《河北师范大学学报(教育科学版)》2019 年第3 期,第76 页。还有部分研究者在分析自动化问题时指出,低技能、低教育水平的劳动者将会是自动化的主要受害者。〔16〕See Autor, David H., Levy, Frank & Murnane, Richard J.,“The Skill Content of Recent Technological Change: An Empirical Exploration”, 118 Quarterly Journal of Economics 1279, 2003, 1279-1333 (2022).另外,在ChatGPT 的监督学习过程中,为保证数据可靠性,研发公司雇用廉价劳动力进行数据标注或训练,报酬十分微薄。人的参与是生成式人工智能应用的关键因素,〔17〕参见汝绪华、汪怀君:《数字资本主义的话语逻辑、意识形态及反思纠偏》,载《深圳大学学报(人文社会科学版)》2021 年第2 期,第149-160 页。但大量人类劳动价值被遮蔽,并未得到尊重与体现。我们也看到,平台算法霸权对劳动者带来空前的压力,人类主体性地位受到严重挑战,对既有的人类社会伦理秩序产生了影响。
(二)加剧算法偏见与歧视
人工智能应用是对人的智能的模拟与延伸,人类社会存在的偏见歧视问题将大概率被复制到人工智能中。一是作为与人类社会同构的大数据,包含着根深蒂固的偏见。〔18〕参见张玉宏等:《大数据算法的歧视本质》,载《自然辩证法研究》2017 年第5 期,第82 页。大模型可以从数据中学到刻板联想,也会从训练数据集中继承偏见,并向特定的群体传播社会偏见,继承或加深社会刻板印象,使部分人群遭受不公正待遇。例如,生成式人工智能已经表现出一定的宗教偏见,在23%的测试案例中,人工智能将穆斯林直接类比为恐怖分子。〔19〕See Abubakar Abid, Maheen Farooqi & James Zou, Persistent Anti-Muslim Bias in Large Language Models, arXiv (Jan.18,2021), https://arxiv.org/abs/2101.05783, accessed July 4, 2023.二是生成式人工智能可以在人机交互过程中获取并分析人类回应,不断反馈,自我强化学习,提高准确性。但是,若使用者存在主观恶意,传播虚假或不实数据,或提供的回复本身存有偏见、歧视等个人价值观因素,则很容易生成有害输出,造成危害。不同国家和不同语言的用户的数据更难处理,使真实的数据分析结果容易具有偏狭性。〔20〕参见刘兴华:《数字全球化时代的技术中立:幻象与现实》,载《探索与争鸣》2022 年第12 期,第40 页。具体而言,在和用户互动时,生成式人工智能中所运用的算法不能决定用户会输入何种数据,无法决定保留或删除某些数据,只能被动利用用户和外部环境所提供的各种数据进行强化学习。〔21〕参见许向东、王怡溪:《智能传播中算法偏见的成因、影响与对策》,载《国际新闻界》2020 年第10 期,第77 页。如果与算法互动的对象提供了具有偏见的新数据,就会导致其生成歧视和偏见内容。例如亚马逊AI 歧视事件,亚马逊对以往10 年的简历中的5 万个关键词进行识别和标识排序,但由于简历中大部分为男性,导致训练出的AI 算法存在重男轻女歧视。
因此,人类意图通过生成式人工智能应用为自身的行动选择提供更为全面准确的参考,却可能反而受其误导。〔22〕参见李伦主编:《人工智能与大数据伦理》,科学出版社2018 年版,第208 页。性别歧视、种族主义、地域歧视和年龄歧视等问题可能就隐含在生成式人工智能训练数据中,进而生成有害信息或结果。除此之外,生成式人工智能应用可能会成为别有用心者散布有害信息的工具,用以传播不当言论,制造人身攻击和暴力冲突等。〔23〕参见周洪宇、李宇阳:《ChatGPT 对教育生态的冲击及应对策略》,载《新疆师范大学学报(哲学社会科学版)》2023 年第4期,第108 页。
(三)过度依赖拟态环境输出结果
人类决策将会越来越多地依赖人工智能,这也意味着人工智能将会改变人类行为以及生产生活方式。〔24〕See M.Taddeo & L.Floridi, “How AI can be a Force for Good”, 361 Science 751, 751-752 (2018); C.Beans, “Inner Workings:Can Robots Make Good Teammates?”, 115 Proceedings of the National Academy of Sciences 11106, 11106-11108(2018); K.Ayoub & K.Payne,“Strategy in the Age of Artificial Intelligence”, 39 Journal of Strategic Studies 793, 793-819 (2016).美国著名传播学学者沃尔特·李普曼(Walter Lippmann)曾就智媒体运作程序提出,“拟态环境是楔入在人和环境之间的一种界面式存在”。〔25〕参见[美]沃尔特·李普曼:《公众舆论》,闫克文、江红译,上海人民出版社2006 年版,第11-12 页。生成式人工智能的应用同样囿于拟态环境所生成的“茧房”。人工智能的迅捷发展使人们开始习惯依赖其输出结果来认识周围事物,并对其结果产生信任,而并非通过与世界的直接接触获取信息或结果。这时,传来经验代替实践经验,拟态环境成了人与世界之间的一种中介性存在。〔26〕参见陈小平主编:《人工智能伦理导引》,中国科学技术大学出版社2021 年版,第161 页。因此,机器通过对诸多信息数据的选择、加工与组合,最终向大众呈现的并非全然是真实世界中的客观事实,其存有产生“象征性现实”这一拟态情况的可能。应用者接收到其输出的拟态事实并经由大众传播渠道输出后,便会变成普遍的现实存在,成为人类行动的标准和认识世界的依据。〔27〕参见郭庆光:《传播学教程》,中国人民大学出版社1999 年版,第113 页。
生成式人工智能的应用与发展更为“人化”,其为人类的工作、学习和生活提供诸多便利的同时,也使人对其输出结果产生高度依赖性。〔28〕参见王佑镁等:《“阿拉丁神灯”还是“潘多拉魔盒”:ChatGPT 教育应用的潜能与风险》,载《现代远程教育研究》2023 年第2 期,第52 页。生成式人工智能投射的是可感事物的影像,因而会造成应用者的认知假象与心理焦虑。〔29〕参见彭兰:《算法对共同体的强化与促成》,载《青年记者》2021 年第9 期,第4 页。一方面,在当前生成式人工智能构建的数字环境中,大众心理所生成的逻辑会受到这一新型数字形态的干扰,形成“排斥—疑惑—信任”的心理逻辑,陷入其所营造的算法舒适圈,消磨使用者的主体性与独立性。另一方面,当使用者在与生成式人工智能进行对话时,其谈话过程与“人类交互”高度相似,会令使用者陷入“认知舒适圈”,使应用者获得精神认知的舒适性,造成对现实事物的误判,从而导致认知狭隘化。以搜索文献为例,使用ChatGPT 能够迅速找到相关文献并生成文献综述,但过度依赖令使用者失去了相关学术训练甚至丧失能力。这时,拟态环境已形成,即使生成式人工智能所提供的回复或推断是错误的,使用者也难以分辨。
(四)人机协作双向价值对齐困难
当生成式人工智能支持不道德的观点或行为时,可能会引导用户执行有害于人类价值的行为。〔30〕Weidinger et al., Taxonomy of Risks posed by Language Models, ACM (Jun.22, 2022), https://dl.acm.org/doi/10.1145/3531146.3533088, accessed July 4, 2023.如亚马逊的语音助手Alexa 在2019 年底被爆出“劝人自杀”事件。某护理人员就一些心脏健康问题咨询Alexa,它给出的建议为:人活着会加速自然资源枯竭,造成人口过剩,这对地球有害,所以心跳不好的话,请把刀子捅进你的心脏。亚马逊方面称,这是Alexa 程序存在漏洞所致。我国《互联网信息服务深度合成管理规定》第10 条明确,深度合成服务提供者应当加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核,使其对齐。而《生成式人工智能服务管理暂行办法》也对生成内容提出了要求。但如何在生成式人工智能快速迭代的同时填补立法漏洞,还需要充分发挥科技伦理的先导作用。
另外,生成式人工智能在面对多种设定目标冲突时,可能会作出错误取舍。如果人工智能不能理解人类的意图,在为其设定多种目标时,人工智能可能会作出错误的选择,输出结果可能不符合人类意图。如果人机双向价值无法对齐,机器可能会选择执行人类不需要的目标,在机器看来,这是可以最大限度达到人类给定目标的代价最小的捷径。通用人工智能诞生后或许会全面超越人类,如果不能坚守人的价值立场,我们可能会失去对它的控制,使机器应用最终凌驾于人类之上。“通用人工智能可能导致的最大风险便在于,它是否会通过自我学习和自主创新,突破设计者预先设计的临界点而走向失控,反过来控制和统治人类。”〔31〕李伦主编:《人工智能与大数据伦理》,科学出版社2018 年版,第265 页。如果人工智能产生了高度的自主性,其所造就的结果,将会对传统的以人为中心的伦理秩序造成冲击。
三、生成式人工智能应用的人本主义伦理立场
伦理是关于道德的研究和规范,涉及个人、社会和文化中的行为准则和价值观。伦理作为一种人的行为准则,原本是指人与人之间、人与社会之间的义务,也是每个人源于道德的社会责任。〔32〕参见辞海编辑委员会:《辞海》(增补本),上海辞书出版社1979 年版,第221 页。它探讨人们应该如何行事,如何判断行为的正当性、公正性和道德性,以及如何在不同情境下作出正确的道德决策。当伦理应用于人工智能领域,探讨的便是人工智能应如何作出正确的行为。
随着人工智能的应用场景日益丰富,其涉及的伦理学问题日益引发学界的关注,已经催生了“机器伦理学”(Machine Ethics)、“计算道德”(Computational Morality)、“机器人伦理学”(Roboethics)等伦理学分支,并随之产生了新概念——人工道德行为体。〔33〕参见徐英瑾:《人工智能必须考虑风土性因素——以“电车难题”为母题》,载《哲学研究》2023 年第2 期,第96 页。有学者提出,人工智能并非完全意义上的工具,其具备一定的意识和情感,可以成为“有限的道德行为体”承担道德责任。〔34〕参见简小烜:《人工智能体作为有限道德代理者的道德责任》,载《伦理学研究》2022 年第6 期,第131 页。“人工道德行为体”处于社会网络中,在一定程度上进行道德实践、承担道德责任,具有低自主性、无明确自我目的、依赖社会系统分配责任等近似人类的现代性境遇。〔35〕参见张正清、黄晓伟:《作为“他者”而承担道德责任的智能机器——一种人工智能成为道德能动者的可能性》,载《道德与文明》2018 年第4 期,第32 页。其出现正在动摇传统道德秩序根基。〔36〕参见赵鹏:《科技治理“伦理化”的法律意涵》,载《中外法学》2022 年第5 期,第1201 页。但是,从物质构成出发,人工智能与人类等碳基生物之间存在本质区别,仍未出现生命特征,实践中仍然且只能处于辅助地位。〔37〕参见徐英瑾:《人工智能可能具有想象力吗?——以三木清哲学为出发点》,载《学习与探索》2023 年第4 期,第26 页。因此,人类——而非人工智能抑或其他技术——是社会实践的主体,“关心人的本身,应当始终成为一切技术上奋斗的主要目标”〔38〕许良英、赵中立、张宣三编译:《爱因斯坦文集》(第三卷),商务印书馆2009 年版,第89 页。。“以人为本”应当是生成式人工智能应用的伦理立场的出发点,伦理治理规则应当从该立场出发、解释并生成。
聚焦于人机共存关系,我们亟须秉持人本主义立场来定位二者在社会谱系中的相对位置。第一,明确人类较之机器所具有的优先地位,把人类放在第一位,兼顾人机交互的优势。第二,明确机器的从属性和次要性,要求在人机共存的关系中始终把人工智能视为实现人类目标的工具,其任务是协助而非取代人类,更不能操纵和支配人类,使人类异化为工具。〔39〕参见赵瑜、周江伟:《人工智能治理原则的伦理基础:价值立场、价值目标和正义原则》,载《浙江社会科学》2023 年第1 期,第110 页。第三,无论是传统工具,还是生成式人工智能,都是人类创造的有价值的社会实践物,都要遵循“人是目的”的伦理立场,不能改变其“属人性”的特征。当前学者对人本主义伦理立场的内涵和外延争议较多,我们认为,其主要包括福祉、尊严和责任原则。福祉原则是以人为本的根本目标,尊严原则是实现以人为本的前提和必然要求,责任原则是实现以人为本的重要保障。上述原则旨在确保人工智能发展和应用为人类社会带来正面伦理影响。
(一)福祉原则
生成式人工智能应用的出现,对人本主义立场提出了挑战,人的主体性地位受损,部分弱势群体被物化、贬损的风险加剧。在这种情况下,应当就生成式人工智能的设计、研发、应用全生命周期中考虑人类福祉并开展新的解释和适用。在人类集体福祉层面,生成式人工智能应用于促进人类共同确认的社会目标的实现,如创造良好的社会环境、提升经济效益、推动社会进步、满足人们精神需求等。在个体福祉层面,生成式人工智能应促进或者补充人类能力,如在主观上增强人的认知能力、提升人类快速获取信息的能力、准确处理与评估信息、作出正确合理的决策等。对弱势群体,除考虑成本效益外,还应关注公平可及。
(二)尊重原则
人类研发和使用的各种工具,包括人工智能产品,都应服务于人,以维护人的尊严与基本权利为出发点。在生成式人工智能发展中,已经引发了理性、自主性是不是人类特有的争论,人类价值逐渐被机器价值屏蔽,对人类主体性和尊严提出了挑战。世界科学知识和技术伦理委员会在其发布的《机器人伦理报告》中明确,理性是人类独有的天性,而机器人只是人类创造的产物,即使可能拥有超越人类个体的认知能力和学习能力,但不具有自身设定目的的能力。应当如何理解生成式人工智能对“尊重人类”的理解?下面将从人的自主决策与选择、隐私保护、平等对待等方面进行简述。
其一,自主选择与自主决策要求生成式人工智能在应用过程中,不得使人类受到欺诈、胁迫或者控制,要提供充分的信息与知识,作出合理回答;要使用户保持相对的独立性,不对人工智能系统产生过度依赖;要明确其人工智能系统的工具属性,防止人与人工智能系统关系的异化,不得针对个体作出具有歧视和有害性的言论。而当前生成式人工智能却容易被诱导输出歧视性与虚假言论,应引起高度重视。其二,隐私保护是指研发与应用生成式人工智能时,应防范个人信息泄露,如要考虑其对聊天数据安全处理和自我学习问题,以及给予用户充分隐私保护的选择权。其三,生成式人工智能要公正平等对待人,避免歧视。如ChatGPT 表露出种族主义和歧视时,要提升其内容审核能力,对数据本身开展精准筛选,提升优质数据规模。
(三)责任原则
责任原则,指利用任何方式基于人工智能作出的决定与行动,即使不能完全明晰导致损害的因果关系,也可秉持“得利之人需要承担相应不利后果”的原则,〔40〕See Santoro Matteo, Marino Dante & Tamburrini Guglielmo, “Learning Robots Interacting with Humans: From Epistemic Risk to Responsibility”, 22 AI & Society 301, 301-314 (2008).其伦理责任和义务最终应由人工智能的研发者、提供者和使用者等来承担。此外,还应建立监督、审计和调查机制实施问责,做到可追溯、可追责。〔41〕参见王佑镁等:《从科技向善到人的向善:教育人工智能伦理规范核心原则》,载《开放教育研究》2022 年第5 期,第75 页。目前,人工智能应用所依据的数据和算法都是由人主导,故设计、控制和应用ChatGPT 的人应是伦理问题的责任人。而对于在ChatGPT 应用过程中人为干扰产生的伦理问题,应将责任归咎于攻击者,但不排除提供者的责任。这里主要强调了对研发者的前瞻性道德责任,主要考虑生成式人工智能应用可能产生的深刻影响。为了减少在评估中的偏见与歧视,需要科以提供者更多的责任,要求其在开展生成式人工智能设计前就进行必要反应与评估,对技术应具备相当程度的控制能力。
四、人本主义立场下的生成式人工智能应用的伦理治理机制
法律具有滞后性,科技创新要考虑伦理先行,伦理治理是社会稳定运行的基础,伦理规范应成为规制社会安全风险的重要准则。我国需考虑,在人工智能未来风险不可完全认知、风险评估及成本效益分析等规制手段不完全有效的情况下,坚持人本主义立场,秉持人工智能系统与人类的协作与互补关系,保持人机共存社会中的人类主导地位,防控科技伦理风险,保障人的基本权利,探寻符合中国语境、面向中国问题的科技向善的实现之道。〔42〕参见贾璐萌:《技术伦理实现的内在路径研究》,东北大学2018 年博士学位论文,第96 页。具体而言,一是从组织机构出发,以专门的人工智能伦理治理机构主导相关领域的伦理治理与监督工作;二是从规范出发,通过制度内容来应对重点伦理问题,以政策、法规引领人工智能技术,使其符合以人为本的伦理要求。
(一)建构人本面向的人工智能伦理治理组织机构
人类应当把握好人工智能伦理问题的终极决策权力。设置由相关专业人员组成的伦理组织机构,对生成式人工智能应用进行审查与监督,本属人本主义立场的题中之义。在《科技伦理审查办法(试行)》和《生成式人工智能服务管理暂行办法》等规章发布前,已有地方对人工智能伦理审查问题开展探索。2022 年,我国首部人工智能专项地方立法《深圳经济特区人工智能产业促进条例》设置了伦理委员会,明确了人工智能应受到伦理监督。伦理治理组织机构涉及成员构成、职责分工和运行机理,对人工智能风险规避和用户合法权益保障具有积极作用,对构建“关口前移,防患于未然”的人工智能风险伦理规范体系具有重要意义。
未来,我国人工智能治理组织机构应当立足人本主义立场,重视常态化、场景化评估生成式人工智能引发的伦理风险与影响,制定伦理安全标准、技术规范、风险防控与应对策略。各层面伦理委员会应协同发挥作用,政府和企业的伦理规范职责需要相互协调、信息互通、分工明确,搭建伦理监督的协同治理组织框架。另外,政府部门应秉持预防原则,对生成式人工智能的伦理风险及时干预,对其发展方向、发展战略作出规划,制定安全标准与规范,提升管理风险的能力。〔43〕参见杜严勇:《人工智能伦理引论》,上海交通大学出版社2020 年版,第187-188 页。再有,保障公民基本权利是坚持人本主义立场的必然要求和题中之义,伦理委员会也应当关注公民基本权利如何得到有效保护。例如,在劳动权保障方面,联动劳动人事行政部门,对人工智能替代性岗位产生的失业者提供就业指导,开辟新的就业岗位,做好针对失业者的生活和再就业保障工作。
(二)完善人本面向的人工智能伦理规范机制
1.明晰技术应用的公平机制
公平不仅是现代法治国家法的基本价值,更是人类所共同追求的崇高理想。坚持生成式人工智能应用的人本主义立场,要求公平原则贯穿生成式人工智能应用的全生命周期。国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出“坚持普惠性和包容性,促进社会公平正义和机会均等”,应关注生成式人工智能应用中所产生的歧视、偏见、刻板印象等,完善公平保障机制。
第一,在生成式人工智能应用的系统设计过程中,将人类负责等价值观内嵌于系统中。〔44〕Friedman B & Kahn H P, New Directions: A Value-Sensitive Design Approach to Augmented Reality, ACM (Apr.1, 2000),https://dl.acm.org/doi/10.1145/354666.354694, accessed July 4, 2023.在生成式人工智能的早期技术设计阶段就应嵌入价值设定,如隐私、信任等,来解决设计道德问题。〔45〕See Jeroen van der Hoven & Noemi Manders-Huits, “Value-sensitive Design”, in Jan Kyrre Berg Olsen, Vincent F.Hendricks& Stig Andur Pedersen eds., A Companion to the Philosophy of Technology, Wiley-Blackwell, 2009.具体而言,可以在生成式人工智能应用之前,设置“系统应用前伦理倾向测试”。一方面,扩大技术系统质量评价标准的范围,将伦理价值作为考量因素;另一方面,提前设定符合应用者价值倾向的算法,并设置错误价值观矫正机制,推动生成式人工智能对应用者的正向反馈,必要时可将“以人为本”“服务人类”等人类价值理念融入算法,对生成式人工智能实现潜移默化的修正价值观的效果。
第二,人类介入并对相关数据进行标注,促成输入结果的真实性,并形成生成式人工智能应用真实性的规范和制度。正如《生成式人工智能服务管理办法》第8 条规定:“在生成式人工智能技术研发过程中进行数据标注的,提供者应当制定符合本办法要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。”通过数据标注能够保障生成式人工智能的真实性与可靠性。〔46〕Weidinger et al., Taxonomy of Risks posed by Language Models, ACM (Jun.22, 2022), https://dl.acm.org/doi/10.1145/3531146.3533088,accessed July 4, 2023.创建和改进有关伦理原则,结合典型案例,基于对生成式人工智能伦理困境的创造,从训练伦理案例中抽象出一般性原则,并将其不断投入新案例训练中,测试检验原则的准确性,循环往复,对生成式人工智能所遵循的原则进行反复修正。〔47〕参见莫宏伟、徐立芳编著:《人工智能伦理导论》,西安电子科技大学出版社2022 年版,第177 页。
第三,打破算法黑箱,推动算法透明,促成生成式人工智能应用过程可解释性实现。既然生成式人工智能可能引发伦理问题,其应用过程就应当受到人类监督;而确保生成式人工智能应用过程中监督有效性的落实,理应推动算法的透明化、可解释化。要利用自动推理技术,确保伦理决策系统的真实可靠。同时,要设定科学合理的推断规则,其中因果推断是决策规则的最佳选择,它具备可解释性,需要保证整个推理过程对人类和机器来说是可检查、可交流的。〔48〕参见于江生:《人工智能伦理》,清华大学出版社2022 年版,第445 页。
2.完善伦理风险的预警机制
生成式人工智能的出现,对人的生产方式、生活方式、思维方式、价值观念和学术研究等产生重要影响,而由于ChatGPT 模型生成文本的不周延性以及缺乏严谨性,可能存在传播误导性内容、虚假信息及偏见歧视等伦理隐患,甚至对人的基本权利产生消极影响。因此,为加强人工智能技术安全保障,相关研发机构与管理机构可与相关行政部门和企业合作,建立伦理风险智能监测、预警及管控机制,提升生成式人工智能的安全透明度,细化ChatGPT 伦理风险类型,并利用类似ChatGPT 的生成式人工智能对安全风险点进行识别与分析,建立人工智能伦理治理的风险预警阈值。同时,针对不同的伦理风险制定相应预案,开发风险预警系统进行监测。〔49〕参见张夏恒:《类ChatGPT 人工智能技术嵌入数字政府治理:价值、风险及其防控》,载《电子政务》2023 年第4 期,第55 页。一旦发现潜在风险,及时向执法部门、应用企业、用户等发送预警信息,以便及时应对。另外,研发机构与管理机构要提升训练数据的质量,促进生成式人工智能的更新迭代,强化人工智能数据训练中的深度学习能力与各种语言文化识别能力,减少偏见歧视发生,增强生成式人工智能的伦理判断能力。
不论采取哪种进路,都要求算法设计者有足够的“道德想象力”。〔50〕所谓“道德想象力”,是指超越自我和情境的限制,拥有更加宽广的伦理视角和道德感受能力。参见[美]佩德罗·多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,黄芳萍译,中信出版社2017 年版,第432 页。通过情感投射,试图穷尽所有可能,“设身处地”地为情境所牵涉的每个人的处境着想,并尽可能地洞察输入目标可能会采取的各种行为方式或倾向,以达到预示目的,在陷入道德困境时,仍能继续寻求行为选择的可能性。〔51〕See Johnson M, Moral Imagination: Implications of Cognitive Science for Ethics, University of Chicago Press, 1993, p.98.
3.补足伦理审查的追责机制
生成式人工智能由人研发,亦为人所用。倘若生成式人工智能应用过程中引发了伦理危机,应当依照有关规定追究相关主体的伦理责任,维护生成式人工智能应用的人本主义立场。首先,在人工智能跨境使用过程中,各国的人工智能伦理治理组织机构应当根据本国法与国际法,在本管辖区内承担人工智能伦理治理责任。ChatGPT 等生成式人工智能作出的问答或给出的信息,其伦理责任最终应指向人工智能应用各环节承担实际角色的主体。生成式人工智能仍然是一种“非人化”拟合工具,基于对参数与数据的分析,其本身不具有人类意义的主体自觉和情感,严格来讲不具有伦理意识与责任。《生成式人工智能服务管理暂行办法》第9 条规定了提供者需承担生成内容生产者的责任,履行个人信息保护义务。但目前需要明确,提供者责任是否就是生产者责任,还有没有其他责任义务,以及提供者的责任能否涵盖全部责任主体。故就人工智能技术发展现阶段来说,仍应当基于人本主义立场,明确提供者、使用者、设计者等各方主体的伦理责任,落实伦理责任承担机制,完善责任体系。〔52〕See Jeroen van der Hoven & Noemi Manders-Huits, “Value-sensitive Design”, in Jan Kyrre Berg Olsen, Vincent F.Hendricks& Stig Andur Pedersen eds., A Companion to the Philosophy of Technology, Wiley-Blackwell, 2009.不应赋予本质上不属于生物、不具有人格的生成式人工智能所谓“主体地位”,更不能以此要求其承担法律上规定的自然人、法人、其他组织等主体应当承担的伦理责任。
另外,责任追究机制的落实也需要有问责制度的保障,应建立监测生成式人工智能系统全生命周期的机制,针对算法、数据与系统的运行流程进行监测与审计,强调对生成式人工智能应用的可追溯性和可审计性,从审查制度、管理流程、审查规范标准等方面构建监管体系,比如建立伦理影响评估机制、审计机制和保护举报人制度等。〔53〕参见苗逢春:《教育人工智能伦理的解析与治理——〈人工智能伦理问题建议书〉的教育解读》,载《中国电化教育》2022年第6 期,第34 页。
五、结语
综上,伦理问题关乎人工智能未来的技术走向、规则制定、接受程度等一系列问题,是生成式人工智能发展过程中需要解决的首要问题。目前,许多机构已开展针对生成式人工智能的伦理影响的研究或制度设计,并商讨其治理方法,但现阶段的治理举措仍显割裂和零散,难以实现伦理与治理的融合。由于欠缺系统性的考虑和理论性、规范性的指导,相关应对措施存在局限性。在人工智能快速发展的当下,需明确,即使生成式人工智能应用具备较强的学习和理解能力,但仍属吸纳虚拟世界中的数字代码集成,距离与客观世界真实交互还有遥远的距离,遑论被赋予主体地位和替代人类思考。因此,应当警惕生成式人工智能应用对人类主体地位的撼动,坚持问题导向和以人为本的理念,聚焦包括ChatGPT 在内的生成式人工智能系统的伦理困境,以人本主义立场建构相关原则、规则,为人机共存社会寻求妥善的伦理解决方案。