新疆都市报 > 科技 > 智能 >

刑法如何应对人工智能带来的风险挑战

发布时间:2019-12-07 14:14来源: 网络整理

原标题:刑法如何应对人工智能带来的风险挑战

  人工智能并不真正具有意识,也不具有非难的意义和适用刑罚的能力,因此人工智能本身不是刑罚适用的适格主体。但人工智能带来的诸多风险不容忽视,需要强化人工智能的制造者与使用者的规范意识,从刑法教义学上前瞻性地回答人工智能的制造者与使用者的行为与刑法中相关罪名的关系。

  人工智能属于人类社会的第四次工业革命,它的快速发展开启一个以新的技术支撑新的社会结构的人类新时代。但从刑法学角度来说,人工智能带来什么样的风险挑战,刑法如何合理应对人工智能,这都需要法律人进行前瞻性思考。

  人工智能进入社会生活带来的两重风险

  人工智能,顾名思义,就是能够模仿、延伸、扩展人类思维、活动的技术。面对人工智能在全球的快速发展,2017年7月国务院印发的《新一代人工智能发展规划》指出,“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”笔者认为,国务院发布的这一文件对人工智能的定位是准确的,人工智能在给我们带来便利、带来发展的同时,也会带来风险。

  一是人工智能技术带来的风险。人工智能目前还未完全成熟,存在许多缺陷。这些缺陷不可避免地会给社会带来一定的风险和严重影响。比如,在光线条件不良的情况下,自动驾驶的汽车可能会因错误识别“减速慢行”标志牌而将人撞死或导致重大财产损失,或者自动驾驶系统故障、没有正确采集数据等原因发生故障而导致驾驶员死亡;无人机进入客机的飞行航线,造成重大安全风险;利用人工智能进行网络性军事攻击;等等。

  二是人工智能制造者制造的风险。就企业生产的人工智能产品来说,不仅会使用大量数据,导致公民个人信息等隐私被泄露的风险,可能会被别有用心的人利用实施犯罪,而且可能被利用实施大规模的、极具针对性的高效攻击,构成安全隐患。这样的风险还包括企业违规制造机器人、使用者拒不销毁具有危险的机器人等。如果没有严格的控制,这种风险会辐射到经济、文化、教育等各个领域,带来严重的社会安全问题。

  笔者认为,为了适应社会的发展,更好地应对人工智能时代面临的新问题、新挑战,不仅需要回答人工智能有无刑事责任能力问题,而且需要从刑法教义学上对人工智能涉及的犯罪有所解答。

  人工智能不具有刑事责任能力

  人工智能对刑法的挑战首先在于归责。许多人对人工智能是否具有刑事责任能力展开了讨论,有肯定论与否定论之分。

  通过对人工智能发展的梳理不难发现,人工智能虽然“神奇”,但是离不开两个必需的条件:一是人工智能离不开大数据的支持。没有足够的数据作为训练样本,人工智能就无法发现自身算法的漏洞,没有机会对算法函数进行修正,产生错误就在所难免。二是人工智能离不开运算能力的提升和深度学习框架的构建。深度学习框架对于人工智能具有重要意义,它的原理是构建多层人工神经网络,借助神经生理学的知识模拟人类的神经活动,然后输入大数据进行训练、学习,根据训练得到的结果重新设置参数向正确结果拟合,最终实现模拟人脑的功能。大量的计算和固定的框架导致人工智能更擅长处理有规则性的事务,不过一旦规则改变,情况就大不一样。这对人工智能能否作为归责的主体具有重要意义。笔者认为,尽管当前还处于“弱人工智能时代”,人工智能的未来发展图景尚不能确定,但是从目前来看,人工智能仅是一种帮助人类完成那些有规则可循的重复性工作的工具,并不具有真正的意识,也就不应当具备刑事责任能力。

  其一,人工智能并不真正具有意识。从研究现状来看,人工智能主要由人类预先设置好处理步骤,再通过大量计算得出不同决策的得分,根据得分的高低选择何种行为。人工智能虽然看似能够像人类一样自主决策,但是这些决策都是在设计者预先设定的算法框架下得到的,所谓的“自主性”也仅仅是不同决策间的选择,人工智能并不具有人的智能所有的通用智能,没有对刑罚的感受力和自由意志。

  其二,人工智能不具有非难的意义。刑罚处罚是一种文化现象,人类社会延续至今所形成的生命刑、自由刑等之所以有效,是因为罚与被罚都能够以被感知、传递的方式来呈现,从而对被破坏的社会关系予以恢复,从而改变人们的认知,让犯罪的被害人满足报应情感,让犯罪者产生悔意,让社会民众感受到惩罚的威力、必然性等。如果惩罚不能满足这类情感需要,则处罚是没有意义的。人工智能是一种信息技术革命的产物,自身不能感知到刑事处罚的意义,惩罚机器人不如直接废弃或销毁更有社会意义。更何况,通过刑罚措施不能够消除人工智能带来的风险,也不能实现预防再犯的刑罚目的之期待。