法国缘何禁止人工智能指引裁判
发布时间:2019-10-30 15:03来源: 网络整理法国司法官们的职业担忧不应成为阻碍人工智能指引裁判的理由。但人工智能在司法领域内的预测功能也并非全然合理,最核心的挑战是算法的透明性及数据的完整性。在技术层面,当下的人工智能算法均是基于人工神经网络,而人工神经网络最受诟病的缺陷便是“黑箱”性质。
人工智能正深刻改变着人类社会生活的各个领域。各主要发达国家无不将发展人工智能作为提升国家竞争力、维护国家利益的重大战略,力图在新一轮国际科技竞争中掌握主导权。早在2017年7月8日,中国政府便出台了《新一代人工智能发展规划》,提出了面向2030年新一代人工智能发展的指导思想、战略目标、重点任务和保障措施,希望在各个领域部署构筑我国人工智能发展的先发优势,在这场科技竞争中取得领先地位。人工智能在司法领域中的应用亦是发展规划的重要内容,尤其是“智慧法庭”的构想,“建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化”。
法国对司法领域人工智能技术应用监管非常严格
与人工智能在中国司法领域所掀起的滚滚热浪相比,法国却显得尤为冷淡,甚至走上完全相反的道路。作为2018年至2022年司法改革方案框架的一部分,法国于2019年3月23日颁布了第2019-222号法律,明确规定,“法官和书记官的个人数据不能被用于评估、分析、比较或预测他们的实际做出或将要做出的专业行为”,任何违反该条新规的人都可能被判入狱5年(第33条),这大概也是目前世界主流国家对司法领域人工智能技术应用监管最为严格的立法例。
众所周知,当下人工智能在司法领域最重要的一项应用便是预测。包括法国在内的许多国家均设有人工智能法律服务公司。这些公司通过关键数据抓取,可在短时间内分析数百万已公开的法院判决,用于评估所涉案件的胜诉概率,或者通过分析不同法官对某些问题的不同看法或论据而建立不同的分析模型,由此形成法庭的辩护策略,提高胜诉率。法院系统内部也可以通过人工智能进行结果预测,形成类案指引,保证类案类判。
但这些貌似百利而无一弊的法律服务却引发了法国司法官群体的担忧。许多司法官担心,司法预测将对法官在个案中的自由心证形成压力。在司法实践中,法官可能因判决与立足大数据的司法预测存在太大差距而引发公众质疑,这与传统意义上的独立行使司法权存在结构性的矛盾。颇为玩味的是,法国第2019-222号法律的立法初衷是强化司法透明度,让法院的判决更易于进入公众视野,但法官们却普遍要求匿名,个中缘由值得推敲。最终,司法机关与政府达成妥协,除极少数例外情况,法官不得在判决书中匿名,但相关机构和个人也不得将法官的个人数据用于“评估、分析、比较或预测他们实际做出或将要做出的专业行为”。
司法官的职业担忧不应成为阻碍人工智能指引裁判的理由
法国司法官们的担忧固然情有可原,但论据却显然无法立足。在自由心证制度下,法官应立足控辩双方所提交之证据,依理性及良知作出审慎判断,并作出最终的判决。但法官心证责任伦理的形成必须以判决理由的形式公开,并对当事人及社会公众负有说服义务。司法公开的核心功能便是让司法判决接受当事人及社会公众的监督。且判决公开后即属于“公共数据”,在法理上并无正当理由禁止相关企业及个人进行数据收集以进一步的“评估、分析、比较或预测”。从根本而论,司法权与行政权虽然在性质上大相径庭,但均有受到滥用的危险,在这一问题上,法官没有免受人民监督的特权。
因此,司法官们的职业担忧不应成为阻碍人工智能指引裁判的理由。但人工智能在司法领域内的预测功能也并非全然合理,最核心的挑战是算法的透明性及数据的完整性。在技术层面,当下的人工智能算法均是基于人工神经网络,而人工神经网络最受诟病的缺陷便是“黑箱”性质。绝大多数的非专业人士(甚至也包括专业人士)无从了解如何以及为何会得出预判结果,由此引发“独裁算法”的质疑。如果说法官的自由心证需要以判决理由清晰地向公众展示法理及逻辑,则人工智能便仅是提供冰冷的结果,没有清晰的逻辑推论过程,也无须交代数据的处理工序。因此,以“懵懂”的人工智能指引专业法官裁判,是否更具说服力,这显然值得商榷。毕竟“以其昏昏,使人昭昭”,这与现代司法裁判所追求的清晰、理性、逻辑等核心理念完全背道而驰。因此,正如法国现任总统马克龙所指,人工智能科技发展必须实现算法的透明化,方能保证法律的公平正义及提升“指引”的说服力。此外,判决数据的完整性也是阻碍人工智能准确适用的重要原因。目前,法国司法部的官方网站Légifrance仅公布了不到1%的裁判文书,这些“数据”显然还不具代表性。但随着法国司法数据化改革方案的推进,这一问题有望在短时间内能得到解决。
人工智能司法应用需重点解决算法透明性及数据完整性和准确性问题