APP下载

人工智能的社会风险应对研究*

2019-05-09

教学与研究 2019年4期
关键词:人工智能

全球的人工智能在引领新一轮科技革命和经济转型的同时,不可避免地带来或加剧可能导致人员死伤、财产损失、秩序破坏、公正受损等社会难题;亟待全面强化科学的社会风险应对。习近平总书记2019年1月21日在省部级主要领导干部坚持底线思维着力防范化解重大风险专题研讨班上强调:科技领域安全是国家安全的重要组成部分;要加快科技安全预警监测体系建设,围绕人工智能等领域,加快推进相关立法工作。[注]提高防控能力着力防范化解重大风险 保持经济持续健康发展社会大局稳定,人民网,2019年1月22日,http://finance.people.com.cn/n1/2019/0122/c1004-30583073.html.

一、技术视角的人工智能社会风险应对

透过技术视角,人工智能的显性社会风险,主要是因技术失误或故障而导致的公共安全等问题,目前全球皆已开展全方位的技术风险应对。

(一)技术视角的风险源分析

技术视角的人工智能风险根源于其技术特征,并综合导致了风险的难识别、难消除和难控制。

第一,人工智能的“研发不透明”特征可能引发社会风险:一是由于人工智能的研发环境“虚拟化”和研发过程的“黑箱效应”等特征,更易脱离监管;二是研发主体的分散性,研发人员在非指定区域实施人工智能的开发,主体具有较高的“自由裁量权”;三是硬件生产和软件开发的不连续性和相对独立性,使得人工智能研发的产品,能具备隐蔽性、甚至伪装性。

第二,人工智能具有“算法主观性”特征,其算法的准确度和可靠性易受到研发数据和研发人员的主观影响,是社会风险的重要来源。集中表现为:一是算法所需数据的来源多元,不同主体提供数据的动机、渠道、方式、内容均有不同,致使数据的真实性、科学性、精确性、可靠性受到主观因素影响;二是研发人员在数据选择和应用中可能存在“重量轻质”等主观偏好,进而对数据全面性和算法可靠性产生负面影响;三是研发人员可能存在种族歧视、性别偏见、宗教偏好、极端价值观等主观偏差,代入研发后算法将出现失误,导致预测不准确、甚至决策不公正等社会问题。

第三,人工智能的“技术自主性”可能导致“技术失控”,进而产生社会风险。突出表现为:一是基于深度学习技术的人工智能产品具备自学习和自适应能力,可能作出超越研发人员认知能力和预测范围的决策或行为;二是人工智能算法易受到应用情境的客观影响或运营人员的主观干预,进而导致技术失控;三是人工智能技术有可能变异为高度独立自主的“超人工智能”(Artificial Superintelligence)主体,具备脱离人类引导、监督、控制的能力。

(二)技术视角的风险兑现机理与应对要求

技术视角的人工智能社会风险,将导致人员死伤、财产损失等负面后果,因此全球范围内,已在采取针对性的技术手段予以应对。

第一,人工智能的技术缺陷易引发事故,技术达标和产品检验是应对风险的基本要求。在自主控制性强、自治决策度高的应用情境中,人工智能若出现技术缺陷,将引发事故:一是技术缺陷直接引发安全事故和人员死伤,如自动驾驶安全事故、机器人安全生产事故等;二是智能识别存在误差而未能提前发现并阻止安全事故,如安全隐患识别误差、智能交通指令误差等;三是智能安防被破解或出故障而间接导致安全事故和人财损失,如人脸解锁的身份识别曾被3D打印模型破解、家庭智能安防设备出现故障影响安全性能等。对此,技术视角的风险应对需要技术达标和产品检验,通过测试评估和问题整改而使技术和产品达到安全标准,并形成动态识别和修复的技术更新制度。

第二,人工智能可能被误用,风险应对要求技术管理的制度设计。人工智能技术若被非法或恶意使用,将产生多方面社会危害:一是被用于网络攻击,对网络安全、信息安全、数据安全产生威胁;二是被用于制造虚假信息,进而实施诈骗等违法犯罪活动,导致财产损失和社会失序;三是被用于制造智能武器,用于发动攻击、制造恐袭;四是行为分析、数据挖掘、心理预测等智能技术被用于政治宣传和竞选公关,通过对潜在投票人进行竞选信息的个性化推送,可能存在控制社会民意、影响选民决策的风险等。对此,技术视角的风险应对要求形成规避人工智能被误用的技术管理制度。

第三,人工智能可能遭攻击,技术防御是应对风险的基本保障。在特定环境中,人工智能运行系统可能遭到恶意入侵或攻击,进而引发系统失灵、数据泄露等多种后果:一是“对抗样本攻击”(Adversarial Examples Attack)可诱使算法出错,导致人工智能在智能识别时出现误判漏判,如图像识别、语音识别、垃圾邮件监测、恶意程序监测等系统出现失灵;二是“逆向攻击”(Reversal Attack)可获取算法系统的内部数据,易导致有关个人隐私、国家安全等的数据泄露,产生严重财产损失和恶劣社会影响。对此,技术视角的风险应对要求形成持续保障安全运行的技术防御系统和能力。

(三)技术视角的风险应对理念和现有措施

全球经验表明,技术视角的人工智能社会风险应对主要围绕标准规范和技术防护等方面开展。

第一,应用直接可行的技术手段,严防高发频发且易导致群死群伤的人工智能社会风险,做好人民群众生命财产安全的保护工作。技术视角的风险应对遵循工具理性的准则,针对“导致严重人财损失且高发频发”的高危风险,以规避安全风险、发掘技术潜力为目标,采取一系列直接可行的技术方法和基于技术的管理手段来消除或干预风险。

第二,建立健全技术标准,形成规范引导,从而减少技术缺陷,提升技术的安全性和可靠性。实际操作中,由政府相关部门、科研院所、技术企业、行业组织等联合,围绕人工智能的安全性、复杂性、风险性、不确定性、可解释性等关键性能或核心要素,共同推进标准的研发和制定工作。例如,国际标准化组织(International Organization for Standardization)集中于工业机器人、智能金融、智能驾驶的人工智能标准化研究;国际电工委员会(International Electrotechnical Commission)主要关注可穿戴设备领域的人工智能标准化;美国国家标准与技术研究院(National Institute of Standards and Technology)、欧洲电信标准化协会(European Telecommunications Standards Institute)、中国电子技术标准化研究院等也在开展相应的标准研发。

第三,加速研发防控和应对技术,增强对恶意攻击的风险抵御能力。当前,针对人工智能重点产品或行业应用,研发主体已在开展漏洞挖掘、安全测试、威胁预警、攻击检测等安全技术攻关。例如,人工智能公司“深度思考”(Deep Mind)正在研发“切断开关”(Kill Switch),[注]BBC News.Google Developing Kill Switch for AI,2016-06-08,https://www.bbc.com/news/technology-36472140.用于在必要紧急情况下触发人工智能技术系统的自我终结机制;再如,针对对抗性输入、数据中毒攻击、模型窃取技术等常见恶意攻击技术,多个研究机构提出可通过限制信息泄露、限制探测、集成学习、迁移学习、合理数据采样等技术方案予以应对。[注]R.Shokri, M.Stronati, C.Song and V.Shmatikov, Membership Inference Attacks Against Machine Learning Models,2017 IEEE Symposium on Security and Privacy (SP), San Jose, California, USA, 2017, pp.3-18.

因此,技术视角的现有风险应对偏重“工具理性”,技术手段具有一定程度上的片面性;虽在实践中已有成效,但仍难以有效根除责任事故和社会负面影响。

二、社会视角的人工智能社会风险应对

透过社会视角,人工智能在人财损失之外,还可能导致或加剧社会失序、伦理失范等综合风险,全球也已在逐步重视并将风险应对措施付诸实践。

(一)社会视角的风险源分析

社会视角的人工智能风险,其实质是在社会应用中,人工智能可能异化生产关系,并加剧风险后果的复杂性、叠加性和长期性。

第一,人工智能的应用可能对就业产生影响,进而引发“大多数利益受损”和“极少数权益被剥夺”,是社会风险的重要来源。人工智能可能导致大规模现有岗位“被自动化”问题,若机器替代人工成为普遍趋势,则绝大多数民众将不可避免地面临待岗失业和重新择业的境遇,而极少数弱势群体或将面临永久性失业的客观局面。根据多项研究显示,超过一半的现有工作岗位最终将完全被自动化和机器人替代,[注]2010年牛津大学研究预测未来10至20年将有47%的岗位会被人工智能所取代;2016年世界经济论坛预测未来5年将有500万个岗位会失去;2017年麦肯锡研究报告显示60%的职业面临被技术替代的可能性。预示着人工智能的充分应用将出现民众利益受损的连锁反应。

第二,人工智能用于关乎公共利益或涉及公共决策的范畴时,可能出现对于公共利益的侵害行为,进而引发社会风险。突出表现为:一是刑事司法、就业保障等政府可采取智能决策的公共领域,若出现技术被误用,可能出现歧视偏见或潜在不公的争议,则将导致关联社会群体的利益受损;二是自动驾驶等与广大人民群众生命财产安全紧密相关的领域,一旦出现风险,其影响范围广泛、关联群体众多。对此,美国纽约通过《关于政府机构使用自动化决策系统的当地法》(A Local Law in Relation to Automated Decision Systems Used by Agencies),[注]相关报道详见:Smartcitiesdive.New York City Council passes bill to address algorithmic discrimination,2017-12-20,https://www.smartcitiesdive.com/news/new-york-city-council-passes-bill-to-address-algorithmic-discrimination/513518/;方案内容详见:http://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0.要求对政府机构使用的人工智能决策系统进行算法问责和安全规制,以确保自动决策算法的公开透明,避免“算法歧视”。

第三,人工智能应用中的“零和博弈”若成为思维定势,将固化或加剧人类与人工智能的对立。一种观念是“间接零和博弈”,认为优势群体应用人工智能将加速或加剧资源的“不均等分配”,进而拉大不同群体间的差距;若所谓的“超人工智能”时代成真,则社会可能裂变为两大阶层,大部分人属于“无用阶层”(Useless Class),极小部分人属于社会精英阶层。[注]Yuval Noah Harari,The rise of the useless class,2017-02-24,https://ideas.ted.com/the-rise-of-the-useless-class/.另一种观念是“直接零和博弈”,更加极端地将人工智能与人类直接对立,甚至表现为“人工智能威胁论”,认为人类与人工智能之间存在不可调和的矛盾,人工智能长期发展将导致“技术反制人类”;进而出现技术威胁人类安全或生存的风险,“机械作为人类与自然斗争的工具将最终支配人类、人类有可能成为机械的奴隶”[注]A.M.Olson,“Review: Jaspers, Heidegger, and ‘The Phantom of Existentialism’”,Human Studies, Vol.7, 1984(3/4):387-395.的预测。

(二)社会视角的风险兑现机理与应对要求

社会视角的人工智能社会风险,主要表现为民众的利益遭受侵害的风险,既有极少数弱势群体的损失风险,也有大多数甚至全体民众的权益受损风险。因此全球已重视并启用有针对性的管理手段予以应对。

第一,人工智能的应用违背本国法律或公序良俗,其风险应对要求法律或道德的约束。人工智能在某些应用场景中,可能出现违背本国法律或挑战公序良俗的问题:一是在涉及生命伦理的领域,人工智能的研发若超越伦理约束或道德认知,可能导致民众难以容忍的后果;二是精密部署的智能监控技术,可能出现侵犯隐私的违法行为或伦理争议;三是人类对人机情感交互中获得快感的依赖,可能对传统的家庭伦理、社会道德、风俗文化等产生冲击;四是技术成熟和全面应用的智能机器人是否具备人格和人权的“机械伦理学”问题。对此,社会视角的风险应对要求法律和道德的约束,加强立法并严格执法,同时完善和遵循伦理道德规范。

第二,人工智能应用过程中可能产生“马太效应”,而普惠性的技术应用是其风险应对的基本要求。人工智能应用可能触发强者越强、弱者越弱的“马太效应”,进而导致社会不公:一是加剧“数字鸿沟”(Digital Divide),不同群体对信息数据、网络资源、智能技术等产生的差距在人工智能应用下进一步拉大,进而发展为资源获取、财富积累、受教育水平之间的差距;二是人工智能技术发展初期存在“索洛悖论”(Productivity Parado),社会生产率提升相对于技术进步存在迟滞,且劳动生产率的提升难以同步转化为收入的普遍增长和消费成本的普遍下降,进而加剧贫富差距;三是人工智能产业发展的“虹吸效应”(Siphon Effect),依靠技术研发和高额投资的人工智能产业,更多分布于具有资本和技术优势的主体、领域、地区,从而拉大社会差距。对此,社会视角的风险应对更加要求普惠性的技术应用,以缩小社会差距和缓解社会不公。

第三,人工智能可能加深“社会达尔文主义”(Social Darwinism),而保障弱势的制度和政策是其风险应对的支撑。人工智能应用中,管理主体的“社会达尔文主义”倾向可能导致弱势的合理权益得不到有效保障。微观层面的突出问题表现为:忽视自动化生产下的群体失业和贫富差距,大规模自动化生产将导致劳动密集型产业的从业人员面临“结构性失业”风险,也导致普通行业领域的“职业极化”和收入差距。[注]根据麦肯锡2018年9月发布的《人工智能对全球经济影响的模拟计算》,重复性任务和少量数字技术为特征的岗位需求或从目前的40%下降到30%,其在工资总额中的占比或将从33%下降到20%。宏观层面的突出问题表现为:忽视人工智能应用对全球产业布局的破坏,自动化生产将导致跨国企业把生产部门从发展中国家或地区回迁,使其失去以承接产业转移方式进入全球产业链的机会,可能致使国际话语权、规则制定权、议程设定权被个别“独断”。对此,社会视角的风险应对更迫切地要求形成保护弱势群体的“安全阀”制度。

(三)社会视角的风险应对理念和现有措施

全球经验表明,社会视角的人工智能社会风险应对,主要围绕保障个体合法权益来开展的。

第一,应用管理手段和政策措施,严防具有社会责任且易导致负面影响的人工智能社会风险,切实保障绝大多数的合法合理利益和极少数弱势群体的权益。社会视角的风险应对遵循价值理性的准则,针对“存在社会责任且负面影响恶劣”的高危风险,秉持以人为本的理念和人文关怀的责任,通过采取相应的社会规则和福利政策来保护个体权益,有效应对社会风险。

第二,针对企业在研发和应用中的不规范、乱作为、不自律等问题,建立健全法律法规以形成有效约束,有效保障使用者合法权益,进而缓解社会风险。例如,欧盟针对用户隐私保护问题出台了《通用数据保护条例》(General Data Protection Regulation),[注]《通用数据保护条例》(英语:General Data Protection Regulation,缩写作 GDPR;欧盟法规编号:(EU) 2016/679)是在欧盟法律中对所有欧盟个人关于数据保护和隐私的规范,涉及了欧洲境外的个人资料出口。https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A32016R0679.为企业在收集和利用个人数据方面制定一系列具备法律效力的规则,包括:规定企业利用用户个人数据前提供合法凭据,明确特殊类型数据的禁用原则,明确保障用户的一系列数据权利,设定数据安全保障能力的标准等。

第三,针对面向弱势群体和缺乏技能的劳动者,国家和地区逐步采取专项的就业福利和社会保障政策,确保极端弱势群体得到保护,从而对冲社会风险。例如,美国政府为劳动者提供转型指引,启动“失业保险、医疗和营养补充救助计划”(Unemployment insurance, Medicaid, Supplemental Nutrition Assistance Program)和“贫困家庭临时救助”(Temporary Assistance for Needy Families),为工人提供就业指导、上岗培训、咨询服务等。

因此,社会视角的人工智能社会风险应对,通过管理手段对可能导致恶劣负面影响的高危风险开展应对,确有成效;但在价值理性的单维度指导下,也难免出现难以真正实现公平公正等客观问题。

三、治理视角的人工智能社会风险应对

全球的实践表明:仅靠技术视角或社会视角来应对人工智能的社会风险,存有局限性。第一,人工智能是技术属性和社会属性的集合体,其技术风险和社会风险的交互融合致使社会风险机理复杂并可能不断涌现出新生风险,难以静态地应对动态风险。第二,人工智能是工具理性和价值理性的对立统一;工具理性的人工智能秉持效率优先的发展理念,而价值理性的人工智能更强调公平秩序前提下的应用,有可能出现优先次序的矛盾,其实质是难以用单一维度孤立地解决综合的社会风险。第三,人工智能的正效益和副作用可能在应用时长期并存,如果忽略考量民众的真实意愿和主观能动性,则易出现夸大负面影响或错失发展机遇等现实问题。因此,人工智能的社会风险,应引入科学的风险治理模型,透过治理视角来全面和系统地应对。

(一)人工智能的社会风险应对的“两维双向”风险治理模型

通过治理视角,人工智能的社会风险应对,还要综合考量:战略风险和机会成本、动态风险和协同治理、深层次的系统风险和制度防控等一系列的社会因素。因此,建议通过“两维双向”的治理模型来分析和应对:“两维”指技术维度和社会维度,从“技术维—社会维”进行根源分析和定性评估;“双向”指正功能向和负功能向,对“正功能向—负功能向”进行辩证分析和科学应对;有针对性地对四个象限开展科学的风险治理策略(详见图1)。

图1 人工智能社会风险治理的“两维双向”模型

如上图所示,人工智能的社会风险应对,具有四项共性目标:

第一,充分发挥人工智能的正面效益,提升国家竞争力,应对系统风险。主要策略有三:一是提升关键项的竞争力,人工智能的发展需与现有的技术优势和经济强项紧密结合,发挥“长板效应”;二是夯实基础领域竞争力,强化关联行业建设和技术研发投资;三是提升整体竞争力,人工智能发展存在“短板效应”,其短板问题若得不到解决将拉低整体竞争力,对此应加强“补短板”的战略布局和实施。

第二,综合应用多种风险管理策略,切实提升对安全风险的承受力,确保风险处于社会可承受的范围内。对此,应将承受力作为风险研判定级和应对策略的依据:一是对于难承受的风险,采取措施提前规避或消除;二是对于可承受的风险,做好及时干预和对冲工作,确保可控或可抵御;三是根据风险承受力情况,动态评估风险,适时调整应对方案。

第三,强化人工智能应用中的制度约束力,对引发风险的主观因素进行有效约束,从而有效应对秩序风险。一是一般领域的“自我约束”,促进企业自律自治并履行社会责任,主动规避或防范人工智能的社会风险;二是特定领域的“硬约束”,建立健全法律法规和管理制度,在特定领域或特殊行业形成必要的硬性约束力;三是前沿领域的“软约束”,加强对人工智能伦理道德的前瞻预测与呼吁倡导,提倡自觉规避违背伦理道德的社会风险。

第四,提升风险治理的社会协同力,形成各方共治共担风险的格局,有效对冲或缓解社会风险。一是风险所有权主体全员在各司其职的同时加强联动合作,提升风险防控整体能力;二是共创共享社会经济效益以提高社会凝聚力,对冲社会风险;三是落实就业培训、人才培养、福利保障、公共关系、公众沟通等相关政策保障以提升社会耐受力,降低负面影响。

因此,通过竞争力、承受力、约束力、协同力的提升,从而综合统筹人工智能发展、个体安全感、国家竞争力的三者关系,提升正面效益、降低负面风险。

(二)治理视角的人工智能社会风险应对方针

治理视角的人工智能风险应对,实质上是践行“赋能+避险”的风险方针:以避险为前提,同时赋能人类;既发挥全面提升竞争力的正面赋能作用,同步通过规避超出承受力的社会负面影响。在此过程中,还应该在“两维双向”治理模型的基础上纳入“PR”模型和“IR”模型,对风险发生的可能性(P:Possibility)、后果损失(R:Result)、负面影响(I:Impact)、社会责任(R:Responsibility)进行综合分析,从而在科学的风险定级的基础上实施精细化的风险应对(详见图2)。

图2 人工智能风险定级的“两维双向 & PR-IR”模型

第一,针对存在高危风险的领域,建议禁止应用。警钟长鸣,在谨慎评估和全面审查的基础上,将存在高危风险的应用列入“负面清单”,审核时采取“一票否决”制度,以消除高危风险,实现避险。例如,军事国防领域的滥用和智能武器的过度开发应列入“负面清单”,人工智能行业共识之一的“阿西洛马人工智能原则”[注]2017年1月,在美国加州阿西洛马召开的“阿西洛马会议”上,数百名人工智能和机器人领域的专家们联合签署了“阿西洛马人工智能原则”,呼吁全世界的人工智能领域工作遵守这些原则,共同保障人类未来的利益和安全。建议“致命自主武器的军备竞赛”应被禁用。

第二,针对存在中危风险的领域,建议限制应用的“治理+AI”路径。治理牵引,在安全可靠的情境中引入人工智能的有限应用,充分发挥技术优势促进制造、教育、医疗、养老、环保、城市管理、司法等领域社会治理的精细化和智能化,提升人民生活的幸福感和获得感;同步掌握技术发展应用的关键决策权,根据实际情况合理限制人工智能的自主程度和智能水平,兼顾避险和赋能。

第三,针对存在低危风险的领域,建议鼓励应用的“AI+治理”路径。发展人工智能优先,在人类权益保护和价值实现的基础上,充分发挥人工智能在推动科技跨越发展、产业优化升级、生产力整体跃升等方面的“头雁效应”作用,鼓励人工智能在国家创新能力提升、培育智能产业、建设智能社会、保障和维护国家安全等领域更好地赋能人类,持续提升生产力和优化生产关系。

(三)治理视角的人工智能社会风险防控机制

透过治理视角,即便是鼓励应用的人工智能领域,其发展仍要以科学的风险防控机制为基础;在充分的安全保障的前提下鼓励其快速和健康发展。健全科学和有效的人工智能社会风险防控机制,主要由三部分构成。

第一,社会风险的事前评估与前置管理,实现风险控制的关口前移。以安全技术标准和应用道德规范为依据,对人工智能产品开展事前的安全测试、风险评估、道德审查,及时发现其可能引发技术缺陷、安全故障、道德争议的风险;对具有高危风险的产品予以“一票否决”,对具有中低危风险的产品予以修正和弥补,尽可能确保生产使用中的无缺陷、少故障或零争议。例如:美国《自动驾驶法案》(H.R.3388-SELF DRIVE Act)[注]The U.S Congress,H.R.3388-SELF DRIVE Act,2017-09-07,https://www.congress.gov/bill/115th-congress/house-bill/3388.要求发展自动化或自动驾驶系统的实体提交如何解决安全问题的评估证书,阐述相关测试结果、数据,证明自动驾驶实体可保持安全性能。

第二,社会风险的全程监测与动态干预,打造“无缝隙”的风险控制。以合法性、合理性、可控性、安全性等为参考,对算法设计、产品开发、成果应用的各环节开展技术监测、管理督导、社会监督,在动态变化的研发和使用环境中及时发现失误或纠正偏差,以确保人工智能产品的安全使用、合法运转、合规运营。例如,人工智能领域的第三方研究机构AI Now[注]AI Now,AI Now 2017 Report,2017-07-10,https://ainowinstitute.org/AI_Now_2017_Report.pdf.提出企业应在人工智能系统应用的全流程加强监管:既要在系统发布前进行严格的预发布测试(Rigorous Pre-release Trials)以规避系统错误或偏差,也要在系统发布后继续监测其在不同环境中的使用情况。

第三,社会风险的事后整改与根源治理,形成风险控制的良性循环。通过事后的追责惩治、赔偿救济、问题整改,达到多方面成效:一是对受害者给予合理补偿,一定程度上对冲风险;二是对人工智能设计者和运营者形成“威慑效应”,引导其重视安全和规范操作;三是开展相应整改,健全法律法规、协调政策制度,根源治理风险,防治同类问题再次发生。例如,《欧盟通用数据保护条例》明确规定了对隐私泄露违规行为进行惩罚的具体情境、追责方式、惩罚力度、救济标准,要求若企业在收集和使用个人数据的过程中违规,可被处罚至最高2 000万欧元或者全球年度总营业额4%的罚款。

(四)治理视角的人工智能社会风险共治格局

人工智能的风控机制并非目的,而是要保障人工智能的有序发展,最终提升生产力和优化生产关系。因此,透过治理视角,人工智能的社会风险应对,亟待多元主体落实各自的风险所有权、共担共治风险、共建共享发展。

第一,明确多元主体的风险所有权,各方切实履行人工智能研发和应用中的职责,形成权责一致、积极负责的风险所有权机制。一是应具备“透明性”原则的前置条件,可采取特定领域中人工智能算法设计和系统运行的透明性准入要求、人工智能研发者的认证审批制度、安全信息的强制披露制度等措施,确保研发“透明性”,为明晰责任分布提供技术环境;二是明确多主体在不同领域和阶段的风险所有权,对于开发者、生产者、销售者、使用者、监管者,均应明确其权利、义务、责任,形成“行为—主体—归责”的风险责任体系;三是建立事后追溯和问责制度,形成全流程、动态化、循环式的责任管理机制。

第二,完善共治制度,形成多方共管,在对社会主体形成有效约束的同时,保障其自由权利和合法权益,提升约束力基础上的承受力。一是企业方应自觉接受法律制度约束,在产品安全、人权保护、透明性和可解释性、避免歧视和偏见等方面强化企业自律和行业自管;二是研究机构应在遵循法律法规和道德规范的基础上开展相关研究,确保研究过程和结果的合法、合理、可行、安全、可控;三是政府方应在涉及群众生命财产安全的应用情境中加强政策引导和监管问责,同步接受内部审查和外部监督;四是社会方的积极并有序监督,群众作为消费者和企业员工、开展基于利益相关的监督,新闻媒体通过合理的舆论施压来敦促多方履责,社会第三方基于专业技能和中立权威开展监督、推动整改。

第三,健全共治机制,开展多维合作,发挥各自所长,实现共建和共赢,提高协同力作用下的竞争力。一是深化产教融合下的跨性质合作,不同性质的主体达成共识并形成合作,以促成综合应对方案、解决系统问题;二是形成有利于科学决策的跨领域合作,搭建与多元利益相关主体讨论合作的平台,创造政府、专家、公众等多元参与治理决策的机制,解决综合性的系统偏差问题并规避单一技术专家决策的高风险;三是开展区域联盟和全球治理的跨地域合作,既利用区位优势和联盟传统以形成跨国性或区域性的人工智能发展联盟,也需开展全球范围内的资源整合和协同合作,提升综合竞争力的同时共治社会风险。基于此,实现国家安全保障和竞争力提升、企业兼得经济效益和社会效益、人民群众利益得到切实保障的多方共赢局面,这也是优化生产关系的实质之所在。

综上,人工智能的社会风险应对,应在治理视角下,综合技术视角和社会视角,补短板、强系统、优协同,在切实规避人财损失和负面影响的风险、保障人民群众合法合理权益的基础上,充分发挥人工智能“赋能”人类的作用,以提升社会生产力、国家竞争力和优化生产关系为导向,持续提高人民群众的安全感、获得感、幸福感和满意度。

猜你喜欢

人工智能
我校新增“人工智能”本科专业
用“小AI”解决人工智能的“大”烦恼
当人工智能遇见再制造
2019:人工智能
AI人工智能解疑答问
人工智能与就业
基于人工智能的电力系统自动化控制
人工智能,来了
数读人工智能
人工智能来了