智能化作战法律问题漫谈
发布时间:2019-07-22 20:51来源: 网络整理
中国人民武装警察部队武警特警学院官兵开展“牢记领袖嘱托,奋楫强军征程”活动,图为官兵在参观学习。郭俊锋摄/光明图片
【长城走笔】
军事智能化作为新一轮军事变革的核心驱动力,正在叩响智能化作战之门。智能化作战在制胜机理、作战手段、作战方式等方面的改变具有革命性和颠覆性,这既为各国军队带来机遇,也蕴含着风险和挑战。通过法治路径,指引、规范和保障智能化作战,服务我军军事智能化发展战略,有利于在新的作战形态下维护人类尊严与道义。
圣雄甘地曾说:“有七样东西可以毁灭我们,‘没有人性的科学’即其中之一。”当前,以“深度学习”算法为核心的人工智能技术,使智能化作战平台能够通过大数据分析和学习理解人类作战需求,作为创造性伙伴直接参与作战行动。它在战场上可以相对独立自主地获取信息、判断态势、做出决策、处置情况,从辅助人作战逐渐转向代替人作战。人们在惊呼“无人战争时代到来”之余,不免担心“未来战争是否会失去人类控制”。
我们应清楚地认识到,智能化军事技术无论如何发展,都不应改变人在战争中的最终决定作用。技术终究是人类实现作战目的的工具,不该脱离人类的控制。法律作为调整人的行为及社会关系的规范,应将人类如何利用智能技术纳入自身的调整范围,引导智能技术军事运用步入法治轨道。智能技术的核心是赋予机器以“思考的能力”,智能化作战的关键是武器能够独立自主地决策和攻击。我们该如何防止智能化武器成为脱缰的野马甚至“反戈”人类,如何保证智能化作战遵循体现人类文明成果的战争法规则,一旦出现了违法作战又该向谁兴师问罪、追究责任,这些问题都迫切需要法律的解答,需要由法律划定价值底线,确立行为界限和可控范围,并明晰权责分配。
新军事变革打破了由技术进步到战术、战役实践,再到军事理论发展的传统路径,转而采取以科技创新为原动力,引导军事理论创新,然后设计未来军事实践的新模式。意大利军事思想家杜黑就说过:“一个想要制造一件好的战争工具的人,必须首先问问自己下次战争将是什么样的。”为夺取未来战场主动权,各国纷纷加紧开发智能武器。美国特朗普政府发布的首份《国防战略》报告即提出谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。智能武器中,自主武器系统代表着未来发展趋势,由于具备高度自主性,该武器系统又被称作机器人士兵。当用这些机器人士兵消灭敌人的有生力量时,战争法规则能否得到遵守的问题引起了国际社会广泛关注和热烈讨论。
战争法在满足交战方“军事必要”的基础上旨在减轻战争灾难,要求交战方的军事行动须符合区分原则和限制原则:只能以军事目标为攻击对象;不得引起过分伤害或不必要痛苦。针对自主武器系统自主选择攻击目标、自主实施攻击的特点,有研究认为机器人士兵无法遵守前述战争法基本原则,建议国际社会缔结条约禁止其发展、生产和使用。其实,武器不能理解法律,它只是依照算法行事,对智能武器行为机制产生直接影响的是武器的设计者,武器是可以被设计为遵守法律的。人类应在自主武器的程序和软件设计阶段就植入自身价值追求,体现战争法要求,保证自主武器系统仅攻击符合预设标准的目标,以及在设计人员或操作员设定的法律范围内运行。这也正是对战争法要求各国进行新武器合法性审查义务的落实。
表面上看,智能化作战使人与武器实现了一定程度的物理分离,武器履行了更多以往由人来完成的职能,如信息的收集、存贮和传递,辅助人脑进行决策等。其实,人与武器是以崭新的方式深度融合为有机共生体,人的创造性、思想性与机器的精准性、快速性相结合,人脑的生物智能与武器的人工智能分工合作,在一定范围内一同认知战场态势,共同规划作战行动,相互协作完成任务,实现人机一体作战,角色不再分明。这一背景下,若军事行动违反了战争法规则,如攻击了错误目标,造成大量的平民死伤、民用物体损毁,该由谁来承担法律责任呢?
智能武器系统只是依照算法行事,不是法律主体,也不可能承担法律责任,无论是刑罚的威慑效应还是民法的赔偿责任,对它都没有任何意义。能够对违法军事行动承担责任的只能是武器的设计者、制造者、操作者或行动的指挥者等现实主体。对这些相关方,应从界定他们的职责范围入手,明晰各自的权利义务和违法责任,将违法行为与行为背后的主体进行法律关联,做到各司其职、各尽其责,避免互相推卸、无人担责。一旦违法行为发生,应尽快查明是武器系统本身存在设计缺陷还是制造商的产品存在质量瑕疵,若武器系统本身符合法律标准,再进一步核实是指挥员的指令违法如故意下令攻击平民,还是操作员未尽法律义务如未开启相应传感设备。总之,完善的追责机制是保证作战行为合法的最后一道防线。
(作者:梁洁,系国防大学政治学院军队司法工作系副教授)