人工智能时代技术伦理的发展现状与价值原则
2023-12-10沈爱国赵若瑄厉安恬
文_沈爱国 赵若瑄 厉安恬
ChatGPT的应用让全世界将目光放在了人工智能科技创新与科技伦理上,人工智能也被视为第四次工业革命的核心驱动力。随着人工智能技术的迅速迭代,其所带来的伦理问题逐渐显现并亟待解决,现实境况和相关文艺作品折射着人们对未来技术的忧思。从个人的数据隐私被剥夺,到数字鸿沟下弱势群体的权利遭受侵害,再到技术飞速进步带来的人类社会文化迷失,人工智能技术的风险性将成为具有时代性的议题。
无论人们所设想的“超级智能体”能否实现,我们都已经无法拒绝进入人工智能时代,都必须重新审视人工智能的价值,思考相关伦理规范对技术的调适。面对全球数字治理的进程,新技术下的信任危机如何得以消解?中国在这一过程中面临着怎样的现状?未来,人工智能技术的智慧之光与伦理法制的理性之光该如何交相辉映?
一、我国在数字化进程中的伦理规范现状
随着我国步入数字化进程,不同社会主体之间的伦理关系也面临重构。作为社会生活中的一员,人们享受着数字化生存带来的优势与便利,也在不同程度上承担着伦理失范带来的风险。而在当下中国,数字技术蓬勃腾飞的过程中伦理关切是相对落后的,伦理规范与法律制度设计往往在追随着问题的出现而逐步完善。
1.经济数字化进程中的难题:数据泄露侵犯个人隐私
在中国经济数字化进程中,数字经济逐渐渗透至社会生活的方方面面,作为网民的个人数字轨迹遍布互联网。人工智能和大数据在推动经济发展的同时,由于涉及大量个人和企业数据,也给个人隐私的保护和维权带来了巨大威胁。包括金融数据、电子商务数据、医疗系统数据等,都存在在信息主体不知情的情况下被泄露和贩卖的情况,如何应对这类风险成为亟待解决的问题。
在我国的顶层设计上,制度与法律正在逐步出台,以严格的法律回应经济数字化进程中的伦理关切,要求企业重视数据使用过程中的规范,并落实相应责任。2017年6月1日起施行的《中华人民共和国网络安全法》,以法律形式明确了对公民个人信息安全的保护。2021 年11 月1 日起施行的《个人信息保护法》则以更具体的条款严格限制了个人信息收集的具体要求,如“基于个人同意处理个人信息的,该同意应当由个人在充分知情的前提下自愿、明确作出。法律、行政法规规定处理个人信息应当取得个人单独同意或者书面同意的,从其规定。”法律在制度层面规范保护个人信息安全,部分企业也采用了数据去标识化、数据脱敏等技术使个人信息的搜集、使用和存储最小化,而个人的数字行为也应当更多关注隐私保护问题,从而在多方协同努力下达到数字化社会中的“技术向善”。
2.社会数字化需跨越数字鸿沟,重视弱势群体权益
据我国互联网络信息中心发布的《中国互联网络发展状况统计报告》中的数据显示,截至2020 年末,我国的网民规模达9.89亿,2021年,我国互联网普及率达71.6%[1],成为全世界规模最大、人数最多的数字社会。随着网民规模的不断扩大,线上医疗、线上外卖等行业的发展也保持着稳定增长。
数字技术的应用在很大程度上便利群众,但是对于老人、小孩、残障人士、文盲等信息技术弱势群体来说,这些高科技可能反而会给他们的生活造成障碍。数字化时代,移动支付、线上服务覆盖了公共交通、智慧医疗、行政服务等诸多领域,在人们享受科技便利的同时,技术弱势群体的公共服务权利和公共资源一定程度上受到了挤压和掠夺。如何有效避免数字鸿沟,保障弱势群体的合法权益,是数字治理面临的公共伦理困境。
在摆脱数据技术与社会生活的深度融合而产生的困境方面,政府、企业都应多方参与适弱化改造,帮助数字弱势群体能够适应技术社会带来的生活新样态。2020 年,国务院办公厅印发《关于切实解决老年人运用智能技术困难的实施方案》,针对老年人在突发事件应急响应状态下的服务保障、便利日常交通出行、便利日常就医、便利日常消费等7个方面具体制定了20条解决老年人智能技术困难的完整方案,为解决这一问题提供了基本解决思路。而一些互联网企业也在做出帮助老年人适应数字化社会的尝试,例如腾讯微信开设长辈无忧专线,更好地帮助老年人使用微信。除此以外,企业更应加速开发拓展老年人智能技术使用服务,在“技术+医疗”领域内为老年人提供更有可行性的服务方案。
3.文化数字化加快发展,知识产权保护饱受挑战
2022 年,国务院办公厅印发《关于推进实施国家文化数字化战略的意见》(以下简称《意见》)明确,到“十四五”时期末,基本建成文化数字化基础设施和服务平台,形成线上线下融合互动、立体覆盖的文化服务供给体系。但是,推进文化数字化进程中,文化价值等方面也面临着巨大挑战。
数字化文化发展带来了文化信息的大量生产和流通,但也带来了文化产权的保护难题。在互联网领域中,文化作品未经授权而广泛传播和使用的案例屡见不鲜。2022年,甘肃省博物馆文创团队以铜奔马为主题制作文创玩偶,因形象可爱收获好评,文创人员正为此赶工补货时却发现一些不法商家已经在电商平台上复刻这一玩偶、售卖盗版商品。文创产品作为原创产品,有着生产周期长、成本高的特点,然而每每获得大众关注与喜爱时,热度很容易被低成本仿制厂商掠夺,严重打击原创者的积极性。再以文学作品为例,知识产权侵权泛滥,维权困难,由此导致的文化价值受侵害问题将在极大程度上影响文化发展的活力。
二、人工智能时代的伦理价值审度
在反思人工智能时代时,我们无法避免审视这种文明可能带来的风险性,马克斯·韦伯形象地指出人们将来会注定生活在“技术知识的囚室”中,知识问题是现代性风险的根本成因,伦理原则与规范的制定也应是基于其风险的决策[2]。在人工智能的发展过程中,人们的价值诉求应在于使人工智能的应用更符合公众利益,在慎思其伦理与规范时也应围绕着这一价值目标。
1.追求人工智能决策与权力的公正性
人工智能在全球范围内正在运用到政治选举、广告推送、信用评分等各个层面,无论个人、组织还是整个社会都已无法脱离于数据之外,人们依靠人工智能技术来进行更为高效、精准、客观和科学的决策,但这其实是有相对条件和限度的,无论是数据还是算法都是具有一定的价值负载的,甚至其中带来的歧视也是微妙和精准的,例如Facebook(脸书)被曝算法歧视黑人问题。人工智能体的价值取向与选择无可避免地受到其开发者和应用者的影响,无法做到客观与无偏见,且随着整个社会逐渐被纳入基于数据和算法的精确管理与智能监控之下,技术可以变成一种权力,对技术的迷信与滥用可能会引向“人工愚蠢”,其中存在的不准确、不包容和不公正需要不断被修正和改进,技术的执行者应主动披露自身在其中的利益,以及其中可能存在的利益冲突,以求更为公正的技术使用,无论人类文明进入到何种阶段,“正义”都应该是“社会制度的首要价值”[3]。
2.呼唤更为透明和可追责的智能系统
当下技术使用的不透明性在每个个体的日常技术使用中就有许多体现,例如其中的技术设计偏见和知情同意缺失,虽然以AI为代表的新技术已经逐渐成为当代社会的基础结构,其中的过程与机制的理解却不是普及性的,不透明、难以理解和无法追溯责任等情况普遍存在。而当智能判断出现问题和错误时,开发、应用人员和机器、算法、数据之间的责任难以厘清,技术背后潜在的不良后果的清晰界定与区分是目前AI伦理不得不面对的严峻问题。
目前,各界已经将透明性和可解释性确立为人工智能研发应用的一个基本的指导原则,从规范和立法层面敦促计算机科学家在算法设计和框架评估阶段优先考虑透明性、可理解性和可追责性,以避免应用过程中的偏见和歧视之讼。
3.追求人机协作与人机共生,避免走向人机对立
人工智能在发展的过程中,智能化的合理性在不断挑战人的存在价值,目前机器已经能替换部分简单重复的人力劳动,而未来是否会有超级智能体出现挑战人类理性仍然是一个不可预知的问题。人工智能所呈现的合理性与理性只是工程合理性与工具理性,人们必须发问能否由正面力量操控,是否会超越人类的控制能力并拥有自主性力量。
追求人机协作是探寻一种“基于负责任的态度的可接受的人工智能”[4],人工智能的发展应旨在增强人类智能,而不在于替代人类,有效的人机合作中,人需要在价值发现中进行能动性的干预和控制[5],人类基于理性的关键决策不可或缺,这是对于技术漏洞的纠偏,也能够进一步消除社会对人工智能的疑惧。
目前对于人工智能理论原则的提出基于更为现实的办法,即借助特定的伦理冲突,从后果出发追究倒逼其内在机制或将责任追溯与纠错补偿结合。人工智能的伦理应属于“未完成的伦理”[6],人类无法逃避、否认和阻止人工智能的发展,只能在不断变化的实践之中通过伦理审计吸纳和化解风险。从目前全球的实践探索来看,人工智能的治理正在走向法律、伦理、技术协作互动的实践。
三、结语
人工智能已成为当下社会最为重要的新兴技术,正重塑着人类社会的结构和人们的行为。而随着技术的不断发展更迭,人工智能的伦理道德问题逐渐浮现。近年来,人工智能伦理和治理问题受到了世界各国的重点关注。如何在推动技术发展的同时,规避技术对人权、社会带来的负面影响,是学界业界一直在探讨的问题。分析我国人工智能在经济、政治、社会、文化方面的实践,可以发现不同社会主体之间的伦理关系正面临着重构,而我国有关伦理道德的规范和制度仍存在滞后和缺位的问题。
本文认为,实现人工智能技术向“善”发展,应该始终将公共利益放在首位,具体包括追求更加公正的决策与权力,建立更加透明和可追责的智能系统以及尽可能地实现人机共生。不过,技术伦理本就是一个充满争议的问题。对于人类社会来说,真正解决人工智能的伦理问题,仍有很长一段路需要走,单纯依赖学术角度的解决方案显然过于理想化。因此,我们期待未来有更多的学术探讨和落地实践,从而推动人工智能朝着为人类社会创造福祉的方向发展。