APP下载

试论战争中的人工智能对国际人道法的影响

2019-09-01王浩东

商情 2019年32期
关键词:挑战与对策人工智能

王浩东

【摘要】近年来,人工智能技术发展迅猛,加快了具备自主控制能力的武器和战斗系统在战争中的应用,美国国防部和军方已经表示将人工智能与武器系统结合是未来趋势,欧洲各国也在加紧研制各类自主控制武器系统,但这势必会对目前国际人道法原则发起挑战,影响其对非人道行为的制裁。本文将从介绍战争中人工智能技术的运用情况出发,探讨其对国际人道法体系的挑战,对未来国际人道法的发展提出可行的建议。

【关键词】人工智能  国际人道法  挑战与对策

一、战争中人工智能技术运用介绍

人工智能,是指能够使机器以人类智能相似的方式作出反应的计算机技术,它不是人的智能,但可以超过人的智能。在战争中,人工智能可以依靠大数据的分析,对军事指挥官的军事行动提供决策建议,但最后的决定权依旧掌握在指挥官手中,故在这一应用场景下,人工智能技术只是作为数据资料,不產生违反国际人道法的情况。而人工智能目前最主要并且最具争议的应用主要体现在自主控制武器的使用。

红十字国际委员会提出,自主控制武器是指能够独立选择目标进行攻击的武器。而美国国防部则认为自主控制武器是指在投入使用后可以自主选择目标并与之交战的武器。各方对于自主控制武器的定义都表明独立自主地选择目标并进行不同程度的打击是这决定这一武器不同于传统军事技术的关键。自主控制武器能够在减少武器使用方战斗员伤亡的情况下实现军事目的,成为各国加快速度研发这一武器系统并广泛应用于战争中的现实动力。因此,对于这一技术是否符合国际人道法的规定的研究存在一定的必要性。

二、国际人道法基本原则概述

在国内外学者对于国际人道法的研究中,比例原则和区分原则均属于国际人道法的基本原则成为各方的共识。因此,要分析自主控制系统是否具备合法性,就要从研究比例原则和区分原则出发。

(一)比例原则

在国际人道法体系中,比例原则主要体现在日内瓦公约《第一附加议定书》的第五十一条和第五十七条中。按照第五十一条的规定,预期的军事利益若不及附带造成的损失,那么这次军事行动便违反了比例原则。而第五十七条规定了在实施军事行动时,应尽可能采取预防措施,以降低对平民和民用物体造成的危险。另外,在日内瓦公约《第二附加议定书》以及《国际刑事法庭规约》中,均有对比例原则的相关规定。

(二)区分原则

区分原则在《圣彼得堡宣言》中首次被阐述,此后在多部法律文件中得到重申。日内瓦公约《第一附加议定书》第四十八条将区分原则描述为,为了尊重与保护平民和民用物体,冲突各方无论何时都要区分平民和战斗员,民用物体和军事目标。国际刑事法庭也在关于核武器合法性问题的咨询意见中表示,国家并没有无限制的权利选择其使用的作战手段和方法。

三、自主控制武器合法性探究

(一)自主控制武器与比例原则

根据比例原则的要求,自主控制武器造成的伤害需要低于取得的军事利益。在武装冲突中,影响军事行动所造成损失的范围由多重因素决定,人为指令下的军事行动在没有合理规划的情况下,极容易违反比例原则,而自主控制武器通过人工智能进行技术分析,往往能够更迅速地模拟出打击后的伤害范围,对违反比例原则的军事行动方案加以避免,保证附带伤害与预期军事利益之间的平衡性。即便其计算存在一定的误差,在多数情况下,自主控制武器比人为指挥的军事行动更能遵循比例原则。

(二)自主控制武器与区分原则

区分原则要求平民和民用物体等不得作为军事目标,自主控制武器发起的攻击也需要对该类受保护主体加以避免。毫无疑问,人工智能在数据库支持下比人类更容易分辨出医院、古迹等这类受到国际人道法保护的民用物体。国际人道法将平民定义为没有直接加入武装冲突的人,这一概念本就不够明确,就更提高了自主控制武器的技术要求。但是,人工智能技术如果满足了这一要求,其也就不违反区分原则的要求。

综上,在人工智能技术发展到足够成熟的情况下,自主控制武器在战争中的运用便不违反国际人道法的规定。

四、人工智能技术对国际人道法的挑战

虽然自主控制武器的可以在战争中被合法运用,但是一旦其造成过分损失或因技术失误造成不符合国际人道法规定的后果,对责任主体的确定便成为一个关键。显然,载有人工智能技术的自主控制武器不能以被告身份登上军事法庭。

根据前述内容,自主控制武器的使用在具备合法性的情况下,武器的生产者和技术的开发者也不应承担刑事责任。而在武装冲突中,自主控制武器的使用应当是需要经过指挥官批准的,那么指挥官是否需要对自主控制武器造成的不当后果造承担责任呢?

根据《犯罪要件》,各个罪名的成立都需要以“故意”来作为主观方面的构成要件。而与我国刑法理论不同的是,此处的故意只要求犯罪嫌疑人希望或者追求犯罪结果的发生,并对发生的结果有清醒的认识,类似我国刑法上的直接故意,又或是犯罪嫌疑人意识到自己的作为或者不作为将使危害结果不可避免。而自主控制武器在发起攻击时,脱离指挥官的控制,其根据人工智能技术将演算出多种军事行动策略,每个策略都可能会造成截然不同的后果,指挥官相对于大数据分析,对这些情况的掌握显然是有限的,很难在主观层面上谈论指挥官对于自主攻击武器造成的后果存在故意。因此,依照现阶段的法律体系,难以针对自主控制武器所造成的违反国际人道法的危害后果确定相关主体的刑事责任。

五、国际人道法的对策

由于自主控制武器主观上的独立性,指挥官免除了其采取人工智能技术所带来的违反国际人道法的危害后果,逃脱了法律制裁,这使受国际人道法保护的主体被置于危险境地,国际人道法的秩序体系也将受到一系列挑战。

笔者认为,自主控制武器造成了严重的危害后果,批准使用这一武器的指挥官难辞其咎,其应当成为责任主体,接受法庭的审判和法律的制裁。首先,国际人道法应当对“故意”这一构成要件进行扩充,将有意或刻意的放任也加入到主观故意中去,因为指挥官明知自主控制武器是脱离自己的指挥而采取行动的,其借助该项技术来达到军事目的,就应当对运用自主控制武器这一行为产生的所有后果承担责任。其次,应当明确负有刑事责任的指挥官应承担个人责任,自主控制武器不是适格的国际人道法主体,双方之间不存在上下级关系,引用《罗马规约》第二十五条,指挥官的行为是单独实施犯罪。 这两种做法,成本低,规则明确,能在一定程度上缓解人工智能技术对国际人道法的冲击。

猜你喜欢

挑战与对策人工智能
人工智能之父
2019:人工智能
人工智能与就业
数读人工智能
新媒体时代高校思政教育面临的挑战与对策分析
慕课时代下高职院校教师面临的挑战与对策
下一幕,人工智能!
下一幕,人工智能!
互联网时代下中学思想政治教育的新思考
中国NGO国际化的现状、挑战与对策