娄耀雄:疑难案件和人工智能裁决 地方立法研究202206

【来源】北宝法学期刊库《地方立法研究》2022年第6期(文末附本期期刊法学目录)。因篇幅较长,已略去原文注释。

内容提要:所谓“疑难案件”,只有法律适用的疑难,而无事实查证的疑难。事实问题可以通过陪审团的民主表决制度解决,因而就事实而言只有冤案而无疑难。规则真空、规则冲突、规则模糊导致疑难案件的产生。在疑难案件中,解释规则、选定规则或者创建规则,要么是权力博弈的结果,要么是价值判断的结果。按照纯粹理性设计出来的机器人,无法开展非理性活动,更不能发现规则和加工规则,因为这些都需要价值判断。机器人表面上看学不会价值判断,无法处理疑难案件。然而,社会的主流价值观是理性长期进化的结果,也是长期的、全局的利益平衡的结果。机器人可以通过深度学习来发现社会的主流价值标准,并在不同价值标准下进行功利性比较。这些都是理性活动,机器人可以胜任,因此,机器人可以处理疑难案件。

目次 一、什么是疑难案件 二、疑难案件中法律的作用 三、疑难案件判决的非逻辑表达——法律论辩 四、价值判断是人工智能的禁区吗 结语

直接适用三段论推理的案件是简单案件,机器人可以胜任简单案件的裁决工作。在简单案件中,法律是大前提,陪审团查明的事实是小前提,机器人根据三段论直接推出结论。比如,把“杀人偿命”的法律规范(大前提)输入机器人,再把陪审团查明的“张三杀了人”的法律事实(小前提)输入机器人,机器人法官根据三段论,直接得出“判处张三死刑”的判决。然而,对于疑难案件,需要做价值判断,纯粹理性设计出来的机器人可以胜任吗?面对规则真空、规则冲突和规则模糊,人工智能如何发现规则、选择规则和解释规则?修辞学如何在特定价值观下解释裁决结果?以及人工智能是否可以对算法计算出的裁决结果进行修辞学解释?这些都是本文要探讨的问题。

司法过程无非是查清事实、适用法律。本文所使用的“疑难”是有特定含义的,是指按照特定的制度安排,难以得到问题的解决方案,而疑难案件则是指缺乏可以适用的规则(大前提),无法直接适用三段论的案件。在这种定义下,所谓“疑难案件”,只有法律适用的疑难,而无事实查证的疑难。查清事实不存在疑难,因为诉讼程序中存在事实发现制度。该制度假定事实难以查清,但可以通过诉讼制度和证据规则,得到多数陪审员支持的法律事实。所谓“真相”,只是在特定时间(庭审)、特定场合(法庭)举行的一场讲故事比赛中,根据各方认可的游戏规则(证据规则和诉讼程序),陪审员举手通过的一个更可信的故事版本。

法律事实不是客观真实,而是被规则和证据共同建构的。“司法的程序化运作必须要有一个相应的格式化了的世界。” 建立举证责任和自由心证制度,就是为了在无法查清事实的情况下,得出相对公平的结论。除非我们坐上比光速还快的火车,追上以光速向外传播的“客观事实”,否则我们无法“感知”真相,只能靠证据推演出“应当的真相”——那只是一种个人化的观点。于是,举证责任应运而生:法律承认了自身局限,但又要解决争议,故而,把案件查不清的后果分配给承担举证责任的一方。自由心证更反映了理性无法认知事实的残酷,于是,干脆把这项工作推给了感觉甚至预感和灵感。法官或陪审员依赖这些非理性活动,顿悟了“真相”,拍着良心问自己:“我真的确信吗?”然后,不需要给出理由,在表决时举手公推一个故事版本即可。所以说,“真相”是民主选举得出的,而非科学证明得出的。民主赋予了“真相”正当性。

于是,司法在事实查证上的局限,被民主表决弥补了。任何难以查清的事实,都可以通过举证责任、自由心证、民主表决等事实发现程序——讲故事比赛,以及证据规则、证明标准、证据开示程序——讲故事规则,高效地、方便地、程序化地给出最终结论,即使与真相相去甚远。律师在法庭的立论过程更像是一场演出而非演讲,证据和证人是他的道具,其目的是推销自己对案件事实的观点。这场表演基于对被煽动者(陪审员)心理活动的微妙拿捏、诱导和暗示,使之确信自己演出的故事版本为真,而对方的版本为假。这个过程中,律师的说服主要诉诸非理性煽动。可见,事实问题,没有疑难,只有冤案——陪审员举手选出的“事实”(称为“法律事实”)与客观事实不一致。

而法律适用则不同。在判例法系,从成千上万的判例中,找到可以适用本案的规则并非易事。如果没有先例,只能由法官造法。如果对立的两个律师找到了不同的规则,法官还要判定哪个规则更适合本案。大陆法系的情况也类似,在规则真空、规则冲突、规则模糊(具有可解释性)时,规则本身成了最大的问题。“规则”,按照德沃金的理解,不仅包括法律,还包括非规则性的多元化“标准”。他认为,判决的依据表现为:规则—非规则标准(原则、政策、目的等)—道德、文化及社会理想等,这是一个开放的包容性较强的多层次的系统。从这个开放性系统中选出最适用于本案的“依据”,是一件困难的事,这就是疑难案件的由来。

三种情形下会出现疑难案件:其一,规则模糊,需要对现有规则做解释,从而覆盖该案情形;其二,规则真空,没有可以适用的规则,需要创建一个适用于本案的规则(法官立法);其三,规则冲突,存在多个适用于本案的规则,需要选出一个规则。

在疑难案件中,解释、选定或者创建规则,要么是权力博弈的结果(属于政治问题),要么是价值判断的结果(属于政策问题)。上述两种情况都不是逻辑问题。在没有既定规则可以适用时,保护谁的利益、放弃谁的利益,最终的决定力量有两个:权力博弈和价值判断。司法判决书的作用就是通过操作规则系统,解释结论背后的权力博弈或价值导向,使结论看起来是从一个规则得到的理性结果,而不是肌肉较量出来的(权力博弈)或利益平衡得来的(价值判断)。有关前者,源于司法的工具性,从建立之日,司法就是政治的工具;有关后者,司法的利益平衡就是“法官在法律推理过程中,结合个案情况,对案件所涉当事人的各种利益、相关法律规则所欲保护的利益进行评估与权衡,从微观的角度平衡利益关系,解决利益冲突,并据此对法律进行创造性的解释和适用,作出相应的判决”。

面对疑难案件,重要的是规则的产生,而非规则的运用。疑难案件是先有判决的结果(由权力博弈或价值判断决定),后有判决的理由(法律的解释)。在法治社会,任何利益、权力和正义的分配,都需要一个法制化的理由,法官必须“将现行实在法秩序作为其坚定信奉而不加怀疑的前提,并以此为出发点展开解释、建构与体系化工作”。权力博弈或价值判断的结果也不例外,它们也需要通过司法实现正当化。判决书看起来是在做逻辑推理,其实只是通过创立、选择或解释规则,对权力博弈或价值判断进行法制化,使结论看起来是从规则推导出来的。

价值判断是可以预期的,即使随时代变迁、民族文化、意识形态而变化,也具有实践理性可供挖掘。如果我们充分了解一个社会的历史、文化、道德、习惯、风俗,以及时代需求、舆论导向等特征,就可以把握当时的价值观及其对判决的影响。

价值观导向,“就是将当事人所在的阶层、群体的利益与目的建立相关性,并根据作为基础的准则,对各种可选择之决策作出判断”,其不仅是在规则真空、规则模糊、规则冲突场景下确定准据规则的重要方法,还是改变依规则判决结果的背后动因。比如,河北律师乔占祥诉铁道部案中,原告认为,铁道部就火车票春节涨价问题未举行听证会,违反了《价格法》第23条关于听证会制度的规定,属于程序违法,应予以撤销。铁道部的涨价程序违法是显而易见的,但法院的价值观是,社会秩序的价值高于个案公平,当二者冲突时,为保护前者,宁可舍弃后者。如果判决乔占祥胜诉,将触发全国几亿人要求铁道部退票的连锁反应(有损秩序价值),“社会效果是司法必须考量的重要因素”。于是,法院通过解释规则,认定铁道部的违法可以豁免(舍弃个案公正)。这是先有判决结果(根据价值观导向),后有判决理由的典型案例。法院为了正当化一个基于价值观的结论,通过解释法律,豁免了铁道部的法定义务,“以法律适用技术为依托,来实现超越规则的司法目标”。

裁判的历史表明,“每一个通过诉讼发展出来的重要原则,事实上,并且归根到底,都是或多或少地准确理解公共政策的结果”。其实,很多规则本身就反映了秩序高于个案公正的价值观导向。比如,被推定死亡的人又出现后,其与再婚配偶的夫妻关系并不恢复;专利无效后,已执行的专利侵权判决不可以翻案。

判决书把价值判断的结果进行逻辑化包装,这个过程就是法律论辩。其主要方法是非形式逻辑的立论。法律论辩旨在从理性上说服读者接受价值判断的结论,因为法律的首要任务是充当表达社会集体情感的工具,反映、投射、支持或放大某种已经存在的社会情感。法律论辩是对裁决进行说理的过程,是解释裁决正当性的语言方法。人工智能在可预见的未来还无法进行法律论辩,其只能根据既定算法得到答案,但无法对答案进行说理性解释。可以说,法律论辩是人工智能裁决普及化的最大障碍。

类比论辩的目的是通过事实类比,把一个案件的规则用于另一个案件。在判例法系,类比是法律发现或法律获取的主要途径:通过类比本案事实和判例事实,认定二者的本质相似——本质抽象是在同一种价值观下进行的;然后,本案直接借用判例规则。“所谓遵循先例、遵循先例的判决,实质上就是遵循先例中所体现或蕴含的规则,而不是任何其他东西。” 比如,100年前为了给快饿死的孩子偷面包被判无罪,现在饿得奄奄一息的人偷面包也应判无罪,因为二者事实本质相似——都是为了挽救生命而侵犯他人财产权。

价值判断在这种论辩中体现为:在同一个价值观下,发现了二者的本质相似,或者说,二者事实中隐藏着同一个价值观,例如本案的生命权大于财产权。

如果适用某规则,会得到某种价值观下不可接受的后果,那么该规则不能适用。“在面对疑难案件时,相较于法条主义的裁判思维和方法,以后果为导向的司法裁判致力于实现一种‘逆向’的推理,即先有意预设可能的裁判结论,通过考量不同结论的后果选择裁判的结果,然后再寻找可适用的法律来对裁决进行正当化。”比如,在没有建立“杀害被继承人丧失继承权”规则的地区(美国某些州),杀人者承担刑事责任后,还有权继承财产。此时法官会使用后果论辩来否决继承权:如果适用继承规则,赋予杀人者继承权,则会导致鼓励杀害被继承人的后果,因此,不能适用该规则。

个案裁判兼具解决特定纠纷与指明行为标准的双重功能。上述案例中的价值判断是,判决对今后同类行为的指导价值大于个案公平。虽然杀人者已经为其行为承担了刑事责任,再让其承担民事责任(丧失继承权)属于额外处罚,违反罪刑法定原则,有失公平;但是,这样判决对社会警示效果的价值大于个案公平,为了不鼓励作恶,在刑事责任之外,还要额外剥夺杀人者的民事权利。

此方法是通过解释法律的目的而适用(或不适用)某规则。不同的价值观会有不同的目的解释,因此,规则是否适用(或不适用)是由价值观决定的。“在阐释法律时,应摆脱逻辑的机械规则之束缚,而探求立法者于制定法律时衡量各种利益所为之取舍。” 比如,在一个写着“禁止一切车辆入园”的公园,一个心肌梗死的老人突然倒地,保安拒绝一位救助者的汽车开进去拉人送医;老人死后,家属起诉公园。法官要支持家属,就要否定“禁止一切车辆入园”的规则在这种场景下的效力。然而,这个规则本身不带适用条件,法官只有通过目的解释,“由法律秩序可观察而得之立法者的价值判断”,给这个规则的适用附加一个条件,即立法者建立这一规则的目的是保护人权而非损害人权,当其适用会损害人权时,违反了立法目的,则不适用该规则。这种目的解释彰显了人权高于法治(规则权威性)的价值观。

在规则真空条件下,法官通常会根据功利主义的价值观判定谁的利益应当保护、谁的利益应当放弃。“当其无法依据逻辑完美地解决社会的需要时,就必须主动地审视和权衡案件所涉及的各方面利益,以维护可被认为是优先的利益。” 功利主义的价值比较法,适用于同阶位价值;对于不用阶位的价值,不可用价值比较法。比如,当生命权和财产权冲突时,不能进行价值比较,因为生命和财产不在一个阶位。比较法论辩“把人们从只是机械地关注法律概念的传统中拉回到对社会生活中现实利益的关注”,这也演化出了行政法中的比例原则。比如,在判断拆迁是否合理时,法官说理的核心在于,比较拆迁带来的公共利益增加和个人利益损害是否成比例。“在利益相互冲突不能两全的情况下,法律只能以那种不仅在当事人看来具有正价值、是善,而且在群体主体和社会主体看来也具有正价值、是善的行为事实为其保护的对象,并将其规定为‘应当’。”

从上述四种法律论辩方法可见,法学方法的核心在于说理,其不仅包括逻辑推理,还包括非逻辑推理,而且以后者为主。“现实、实际中绝大多数都不是精确地、形式逻辑地、合理地发生着,这点便提供了法学方法的本质不在于逻辑推论的支持论据。”

人工智能决策不是根据价值判断,而是以大数据统计为样本,通过特定算法计算出各种可选方案的得分,然后选出最高得分对应的方案。人工智能裁决需要克服的主要问题是如何对待自由裁量权,因为在法律赋予的自由裁量权内,决定性的力量是不可逻辑化的价值观,即道德、情感、正义感等良心因素,法官根据个案情况自主决定。由于人工智能没有 “良心”,只能按照算法进行逻辑判断。在自由裁量权范围内,人工智能必须对“良心”因素现象化、客观化、逻辑化,然后编入算法。这种办法并不鲜见,为了防止法官滥用自由裁量权而对“自由裁量权”切割、赋予权重等定量化处置,正是这种办法的运用。例如,最高人民法院、最高人民检察院制定的《关于常见犯罪的量刑指导意见(试行)》规定,如实供述自己罪行的,减少基准刑的20%以下;退赃、退赔,可以减少基准刑的30%以下;尽管没有赔偿,但取得谅解的,可以减少基准刑的20%以下。对于美国联邦法院最近关于堕胎的案件裁判,如果交给人工智能裁决,则不是平衡妇女生育自由权和胎儿生命权,而是首先统计各州是如何对待的、联邦法院之前是如何处理的、各种判决引起的后果是什么、支持和反对的利弊是什么、社会对各种判决的反应如何,从而按照最高得分进行判决。

人工智能可以胜任逻辑判断,如自动刹车(按照既定算法计算,当风险达到阈值后,启动刹车系统)、自动下棋(在下一步的各种走法中选择收益最大的走法)、法条检索(计算各法条与本案事实的相关度,选择相关值最高的法条)。在单一价值观下,即使是非功利的判断,也可以通过大量样本的数学归纳,抽象出本质特征,并选择最接近该特征的数据作为决策结果。如人工智能选美,通过大数据深度学习,把1万张人们认为美的照片交给人工智能深度学习。当然,有1万张丑的照片用于反面特征归纳更好。人工智能通过深度学习,可以归纳出美的特征,决策时就选择该特征最明显的样貌。

然而,面对多个价值,人工智能就无法作出判断。价值判断是当存在多个价值时,放弃哪个价值,捍卫哪个价值的抉择;而不是单一价值观下得分最高的计算。比如,结婚对象是选择最美的还是能力最高的(美和收益的冲突)。对于价值冲突,人工智能通过在算法中给不同价值设置权重(功利系数),从而把多元价值的比较,转换为同一价值坐标系下的得分比较。其实,对价值设置权重的理念早已有之,200年前英国功利主义哲学家穆勒就指出,快乐不仅有数量之分,还有质量之分,并且对质量的判断是要优于数量,因而做痛苦的苏格拉底比做快乐的猪更好。

人工智能所具有的没有个人情感、严格依法行事的优势,使得人工智能裁判方式对人们产生持续的诱惑力。然而,人工智能判决只能给出冰冷的结论,而不能解释该结论,阐述其正当性,从而说服人接受该结论。人工智能通过深度学习、大数据归纳、已有判例统计,按照特定算法计算出最优判决,并没有建立数据间的因果联系,所以人工智能判决无法说理。人工智能裁决不是根据“理”得到的判决,而是根据算法,缺乏人类推理的逻辑和因果联系,无法按照人可以接受的方式进行解释和说服。算法是“机理”,而非“人理”。不能说理的判决,与古代社会的神判并没有本质区别。

如何让人工智能说理,则是另一个领域的话题。本文探讨的是人工智能如何作出裁决,而如何解释裁决已非法学话题。像法官一样,用修辞学阐释其裁决,属于人工智能领域的语言学问题。

法官能否被机器取代的话题,可以追溯到“人工智能”这个概念出现之前的图灵测试时期。在简单案件中,事实(小前提)靠陪审团表决,法律(大前提)被输入机器,剩下的工作就是做一个三段论。这个形式逻辑推理不需要多少智商,机器可以取代法官。然而,对疑难案件,选择规则本身就是一个难题。寻找规则的工作可以由具有人工智能的机器人替代吗?这也许是人工智能时代法官细思极恐的问题。不仅如此,事实查证能否由机器人替代?这也是值得深思的问题,虽然人工智能目前达不到决策的水平,但它引发了关于未来陪审员下岗问题的讨论。

一般认为,按照逻辑设计出来的机器人的理性能够到达的高度是无限的,算法自我迭代的速度超过了人类对算法进行规制的速度,无论多么复杂的判断,只要是理性的,机器迟早能学会;机器人学不会的是非理性活动,包括顿悟、灵感、情感、预感、欲望、本能,因为这些不符合逻辑,且无法客观化,其设计者不能把这些因素进行逻辑化表达,进而写进驱动程序。换句话说,因为与生俱来的缺陷,机器无法超越理性。对于缺乏非理性的人工智能,有的学者甚至不认为其属于“智能”,“因为智能的内核是‘主体的自由’以及主体对这种自由的自我认知和主动应用”。

非理性因素在法律推理中发挥了重要作用,有时甚至是决定性作用。法律人尤其是法官经常发现,“在大多数情况下,他的决定所依据的完全是另一种方式,即直觉地、本能地求助于是非感,实践理性,健全的人类理智”。因此,探讨人工智能是否可以判案,需要回答法律中的非理性因素究竟是理性绝对无法处理的不可知变量,还是理性通过特定算法可以捕获的变量。

适用法律就是做三段论推理,在这个过程中,找到规则(大前提)是关键的一步,也是“疑难案件”之所以疑难的由来。寻找大前提的方法有二:发现规则和加工规则。

发现规则意味着规则已经存在,只是散落在无数判例或法典里,有待找出来。在法典法系,这是一件容易的事,只需对法典中的全部规则进行有限次数的比较,找到最适合本案事实的规则即可。在判例法系,发现规则的过程相对困难,需把在先判例输入计算机,分别与在审案件进行比较,找到“本质相似度”最高的那个判例(这种发现的过程是基于特定价值观的),然后,抽象出其规则。这个过程包含四个步骤:对在审案件的事实进行抽象;对全部在先判例的事实进行抽象;逐一比较上述二者的本质相似度,选择相似度最高的那个在先判例;从该在先判例中抽象出规则。

可以看出,上述过程都是逻辑过程,只要机器人聪明到具有事实抽象能力,就可以胜任发现规则这项工作。

加工规则是指面对疑难案件,在规则真空、规则冲突或者规则模糊的情况下,如何创建规则、选定规则或解释规则。加工规则需要价值判断,即为达成一个价值目标,在特定场景下放弃什么、保护什么?以及当根据多个价值目标的选择结果发生冲突时,按照哪个价值目标做选择?这些显然不是逻辑可以解决的,属于意识形态范畴。这个问题的核心是一个哲学问题:机器人能否做价值判断?说得直白一些就是,电脑的决策程序是软件工程师用逻辑设计出来的,其按照逻辑运行,而价值判断不是逻辑判断,是有关善恶、正义、公平的判断,逻辑能否胜任这项工作?

价值标准是判定行为是否理性的基础。我们需要首先探讨价值标准的本质,然后才能回答逻辑是否胜任价值判断。与梦魇、顿悟、灵感、情感等非理性活动不同,价值标准的形成是群体无意识的理性归化,是为了长期的、全局的利益。这类似于看似主观的女性审美标准,其实是生育基因进化的理性选择:大胸利于哺乳,细腰利于判断未在孕期,大臀利于存储能量。

“善”的进化也是理性选择的结果。善一定有功利主义的支撑,只不过着眼点是远期的、共同体的功利,而非个人的、眼前的功利。比如,动物保护主义者标榜的“爱心”,其实是保护有利于自己的动物;爱狗人士消灭“四害”(苍蝇、蚊子、蟑螂、臭虫)而不认为这是作恶,是因为狗利于人,而“四害”对人有害。又如,利他者的动机也可以从长远、全局的视角找到功利主义的解释,为了共同体在“人人反对人人的战争中”生存下来,人们需要结盟、互助,所以,利他成了“善”的普遍标准。

既然价值标准是理性长期进化的结果,那么,按照理性运转的机器人就可以掌握这个标准。也就是说,机器人是可以做价值判断的。接下来的问题是,即使机器人可以胜任单一价值判断,比如选善行、选好人、选公平的结果,但在复杂价值判断中,根据不同价值标准得到的结果不一致,如何抉择?复杂价值判断似乎是人工智能仅依赖逻辑进行判断的天花板。以下可说明复杂价值标准下判断的难度。在显失公平的撤销权案中,如果交易价格为市场价格的2倍,该交易是否应予以撤销?如果不可撤销,那高出市场价10倍呢?在这种案件中,公平和自由的价值目标发生了冲突,属于复杂价值判断。为保护公平,稍微偏离市场价格就应干预;而按照意思自治原则,无论多么离谱的交易价格,都是当事人的自由意志选择,公权力都不应干预。

实际上,既然单一价值标准是着眼于远期、全局的功利主义进化的结果,那么,当根据两个价值标准作出的选择不一致时,只需要比较二者的功利结果即可。简单价值判断和复杂价值判断,都是理性活动。能胜任简单价值判断的机器人,一定能胜任复杂价值判断。在上述案件中,只需比较维持交易(遵循自由价值)或撤销交易(遵循公平价值)的总体社会功利值,维护大的功利即可。因此,只要人工智能足够发达,机器人就可以进行单一价值判断——单一价值标准下选“善”,以及复杂价值判断——多重价值标准冲突时选“优”,进而处理疑难案件。

缺乏非理性能力的人工智能不仅可以胜任价值判断,而且在判决疑难案件过程中,没有情感反而更有利于保持中立,从而杜绝法官的个人偏好对自由裁量权的影响。

诉讼中的事实问题可以通过陪审团的民主表决机制解决,故只会有冤案,没有事实上的疑难。疑难案件只存在于规则的选择和适用上。价值判断是选择和适用规则的关键,疑难案件是先有判决结果,后有判决理由。结果由价值观决定,理由是对结果的正当化解释,不是得到结果的原因。对判决结果的各种解释方法就是法律论辩,其目的是对判决结果背后的价值判断进行法制化包装,使一个判决看起来更像是规则适用的结果,而不是价值判断的结果。一个社会的主流价值观不是顿悟、灵光一现的非理性,而是长远的功利,是长期发展的利益平衡的理性选择,故由纯粹理性设计并按照纯粹理性运行的人工智能可以学会价值判断。因此,从理论上讲,人工智能可以判决疑难案件。

《地方立法研究》经国家新闻出版广电总局批准创办并公开发行,由中山大学主管,中山大学、广东省立法研究所主办,《地方立法研究》编辑部编辑,中山大学出版社出版。国内统一连续出版物号CN 44-1728/D,国际标准刊号ISSN 2096-2959,创刊于2016年12月4日,为双月刊,逢单月15日发刊,办刊关注地方立法的重大理论与现实问题,反映立法的理论研究成果和先进实践经验,旨在促进立法水平提升,服务法治国家建设。

本文声明 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北律信息网(北宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注