分享

刑事司法人工智能是否需要设置禁区

 anyyss 2017-11-16

标题:刑事司法人工智能的负面清单(节选)

来源:探索与争鸣2017年10月

作者:黄京平,中国人民大学法学院教授、博士生导师。(北京100872)

国家社会科学基金项目“刑事政策实现效果评估体系研究”(15BFX085)


十几年前,当人们阅读有关法律人工智能或者人工智能与法律推理关系的文献时,想必绝大多数人会觉得,法律领域的人工智能只是很久以后的未来可能的图景。今天,在“未来已来”的时代,法律人尤其是法律实务工作者,已真切地感受到,法律人工智能是触手可及的,或者是早已身在其中、享受着人工智能带来的便利。对法律人工智能迅疾发展的态势及其初步成果的司法应用,理论界与司法实务界的反应有着显著的差异。法学界反应迟缓,少有文本表现,至多是置身事外静观事态的发展,弥漫着浓重的保守气息。而在法律实务界,尤其是司法界,却呈现着另一番景象:依据决策层“创造性运用大数据提高政法工作智能化水平”的部署,司法机关以高昂的热情、巨额的投入、异乎寻常的速度和规模,实现人工智能与司法操作的对接,众多成果已经实际启动司法运行。


当前刑事司法领域人工智能的特点,着重表现为:一是,几乎涉及刑事诉讼的所有阶段,不仅有特定司法机关(如检察机关)研制的仅限于本机关法定职权行使的专用人工智能,还有适用于刑事诉讼主要阶段的通用人工智能。二是,从指导理念、研发趋势和运行状况看,几乎没有禁区设置措施,人工智能可以介入任何层次、任何环节的刑事司法判断。

应明确禁区

即便未来的人工智能极其发达、高超,与人类智慧可以比肩,甚至比人类还聪明,即便始终坚持人工智能处于辅助办案的地位,人工智能在刑事司法领域必须有明确的禁区,除非人类法治文明对刑事法治的要求或相应标准发生了颠覆性的改变。

1

对此,人们习惯性考虑的,首先是官方的立场和态度。因为这是一个与国家政策密切关联的领域。国务院《新一代人工智能发展规划》(国发〔2017〕35号)从司法管理的角度,对“智慧法院”明确规定:“建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化。”该规划作为科技、产业政策,对人工智能发展的不确定性带来的新挑战,强调“加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”。具体对刑事司法领域的智能辅助办案系统,决策机构的定位是:为公检法相互配合、相互制约提供新载体,为线下办案活动规范化提供助推器,为司法人员依法独立判断提供好助手。这就明确了“运用智能辅助办案系统,不会替代线下刑事诉讼活动和司法人员独立判断”的智能系统司法运行的主旨。显然,在国家总体工作部署和基本政策层面,对刑事司法领域的人工智能,并没有禁区设置措施的安排。

2

系统研发、技术实施的层面,对刑事司法人工智能应否存在禁区,技术界与司法界有着不同的立场。技术界始终是积极进取的姿态,通常的见解认为,只要技术可以实现,人工智能在司法领域的应用空间,就不应有所限制。在技术界看来,人工智能是使用机器代替人类实现认知、识别、分析、决策等功能的技术,其本质是对人的意识与思维的信息过程的模拟;作为一种基础技术,人工智能的发展终究会处理司法判断中需要自由裁量、自由心证的问题,即替代司法官实现非规范判断。技术界甚至自信而乐观地预言,计算法律(computational law)和算法裁判,或将成为法律的终极形态,人工智能可以代替法官直接作出裁判,换言之,人工智能司法应用的最终成果,会实现由裁判辅助者向裁判生成者的转变。总之,技术无价值(倾向),技术无禁区。在技术界的观念中,这就是司法人工智能应有的品质。

3

在司法界,一种基于“谨慎乐观态度”的观点,具有相当的代表性。该观点认为,智慧司法所需要的人工智能第一要务是辅助或服务司法官办案,不是替代司法裁决、淘汰办案司法官。在司法大数据存在很大局限性的基础上,人工智能在司法领域的应用,需要分步骤进行:

一是,通过智能语音识别技术,将司法辅助人员从记录或咨询事务中解脱出来;

二是,将智能图像和文件识别技术嵌入司法办案系统,将司法官从简案处理和繁琐文牍中解脱出来;

三是,通过数据提纯、算法测试和专业训练,让系统变得更加智能,辅助司法官决策判断;

四是,或许真的会出现“阿尔法法官”自主办案系统。这种观点强调,司法人工智能的研发水平,实际距离第三步的实现,还遥遥无期。因为,辅助司法官决策判断的系统,必须以海量数据为基础,以类型化案件为突破口,通过提炼裁判规则、研发最优算法、归纳既有经验,在类型化案件中实现以裁判规则、司法经验归纳为基础的有限智能化。“可以预见的是,在类型化案件中,有可能形成统一的智能化算法;在不那么规格化的案件中,至少可以做到法律依据提醒、政策比较和类案参考。”

本文以为

在司法人工智能研制大干快上,特别是刑事司法人工智能的研发成果频频问世,舆论好评如潮,初级智能系统实际适用效果有待检验的背景下,前述观点客观、理性、严谨,批评中肯,建言切实。

其中,辅助办案系统“有限智能化”的提法,就暗含着司法人工智能的作用空间应当受到限制的观念。一方面,它实际否定了司法人工智能系统自主办案的可能性,换言之,即便是未来的超级人工智能确实具备相应的能力,也只能辅助司法官办案,禁止其径直作出司法裁决。另一方面,它强调,相当数量的非类型化案件或者案件的非类型化因素,是可能形成的、统一的智能算法实际难以适用的领域;对非类型化案件的司法裁决,人工智能至多具有辅助的作用。某种程度上,正是司法活动的规律、司法判断的特点,客观决定了人工智能在司法领域的作用空间或实际禁区。尽管“有限智能化”是司法界通行的观点,尽管对司法人工智能明确定位为“辅助办案系统”,但在具体操作层面,究竟如何稳妥地划定人工智能的司法禁区,尚未形成明晰的共识。就刑事司法而言,需要结合一般司法规律、刑事判断特征与司法人工智能的可能风险,从多角度进行必要的深度分析,才能促成这种共识的达成。


探讨司法人工智能的禁区,可以有多种思路及其相应的理据。

以立法方式,对人工智能的应用采取必要的法律监管,是一种较为便捷的防范人工智能可能或潜在风险的措施。在美国,为应对人工智能的普遍应用可能对社会运行产生的冲击,立法机构已经着手考虑,对人工智能技术可能在刑事司法等领域的滥用,予以必要规制。

另外一种思路也较为常见,以理论思辨方式剖析人工智能与人类的差别,揭示人工智能根本不能具有的或者无法习得的人类能力,进而实际否定人工智能可能的风险或威胁。相应的理论分析指明,人类文明早已是一种混合了人类和机器的文明,人工智能是人的智性结晶,具有模拟人的意识与思维过程的能力;但人不光有智性,还有心性和灵性,人类的心性、智性和灵性是相辅相成且互相制衡的,人的心性是感情、情绪、感觉的发源地,人的灵性与人的精神世界、崇拜及信仰有关;人工智能不具有人的心性和灵性的潜力,人工智能的发展会受到人的心性和灵性的制约。依据这种推断,不仅需要人的智性,而且需要人的心性和灵性融入其中的司法判断技能,很难被完全转化为算法而由人工智能所掌握。算法裁判无疑会具有模拟人的智性、体现人的智性的功能,但很难具有源于人的心性和灵性的司法判断潜质。

由此推论,设置司法人工智能的禁区,至少是以部分虚幻的假定为前提的,或者说,司法人工智能的禁区无须人为设置,因为这种禁区的客观存在,是由人工智能欠缺的人的心性和灵性的特质所决定的。显然,这一抽象思辨的结论,基本排斥了人工智能对司法活动可能形成的威胁,自然会降低对算法裁判风险的过度忧虑。但这种提振信心的方式过于浪漫,欠缺实效,不利于实施防患于未然的措施。

而前述立法规制的方式,也未必就是好的选项。因为,立法内容如过于原则,会不具操作性,难以形成规制效果;立法内容如超前性把握失准,恐有妨碍人工智能技术发展之虞。于是,基于政策考量出台相应措施,或许是当前技术发展状态下较为稳妥的做法。


    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多