AI审判或许已不再是未来的幻想。2026年初上映的电影《极限审判(MERCY)》描绘了一个近未来世界,由于凶恶犯罪激增,为了维持治安,司法判断被交由AI来执行。在现实世界中,AI的引入也已悄然开始。那么,真正由AI作出判决的社会是否真的会到来?关于司法中AI导入的现状与未来可能性,日本明治大学法学部太田胜造教授如是说。

日本东京大学荣休教授、明治大学特聘教授太田胜造先生
现任明治大学法与社会科学研究所所长、上海交通大学中国法与社会研究院学术咨询委员会委员,兼任日本法律经济学会会长、司法可及性学会理事长、民事纠纷处理研究基金会理事长,并任日本法务省法律教育推进委员会委员、文化厅文化审议会著作权分科委员会委员等。研究领域涵盖法律社会学、法律经济学、法律统计学、AI法及民事纷争解决论。主编《现代日本的纠纷过程与司法政策》(2023年)、《AI时代的法学入门》(2020年日文版/2024年中文版)等著作。
一、简单案件由AI作出判决的时代或将到来
AI技术正在各个领域加速应用。2025年5月,日本最高法院院长在记者会上表示:“作为数字化改革的一环,有必要对此(AI审判)进行思考。”在日本司法领域,关于引入AI的讨论也正在积极展开。那么,如果引入AI,日本的司法体系会发生什么变化?太田教授指出,其主要优势包括:
“1.能实现全国统一的法律判断,减少不同法院、不同法官之间的裁量差异。
2.能基于科学方法,更准确地认定事实。
3.减少虚假或不准确证言、证据所带来的负面影响。
4.裁判结果不再过度受委托律师能力高低的影响。
也就是说,由人作出判断必然产生的“偏差”将被大幅削减。
此外,AI还能减少司法文书的制作时间,从而降低诉讼成本、缩短审理周期,使人们更容易利用司法制度——这一点尤为重要。
人类法官不可避免会受到个人偏见的影响,而AI可以基于数据作出相对客观的判断。如果能在证据整理、事实关系梳理等方面有效利用AI,就能减少对嫌疑人或被告不利的遗漏。也有可能比现在更准确判断被告人的“自白”是否出于自愿,这或许能缓解日本刑事司法中备受诟病的“人质司法”问题。
说到底,即使是民事诉讼,如今在费用和时间上的门槛也太高了。如果低成本、快速的AI审判得以实现,将能救济大量原本无法依靠司法的人群。”
当然,AI的引入并非只有益处,也伴随着风险。例如:系统漏洞导致的误判、个人信息泄露、黑客攻击等技术风险。此外,AI所学习的既往判例中,很可能隐藏着人类法官的偏见与歧视。在期待与不安并存的状态下,AI的社会化应用正在缓慢但确实地推进着。
二、阻碍日本司法AI化的“纸文化”
如果将视线投向海外可以发现,虽然各国发展进度不同,但在案件管理、判例检索、判决书草稿生成等方面,生成式AI已被广泛用作“辅助法官判断的工具”。
相比之下,日本虽然已有AI用于律师业务效率提升,但法院内部几乎没有正式导入AI。其原因之一,是日本存在根深蒂固的“纸文ﻪ化”。
“起诉状、答辩书、判决书及其他书面材料等,法院的各种文件至今仍以纸质为主。律师提交材料时,传真件也依然非常常见。
虽然法院已引入名为‘mints’的民事诉讼在线提交系统,但庭审时仍以纸质记录为基础,法院内部的运作模式仍是纸本导向,最终还是不得不打印出来。
此外,美国从二战前就开始公开判决数据,而日本电子化的判例数据量,在数量级上与其完全无法相比。”
在缺乏充足在线判决数据的情况下,让AI系统性地学习司法实务几乎不可能。不过,日本并非完全停滞不前。
2026年是日本司法数字化的转折点。预计于2026年5月施行的《民事诉讼程序数字化》系列制度,将成为日本司法数字化的重要里程碑,AI的应用也将分阶段推进。
“最先被引入的,应该是事实关系整理的辅助功能。在诉讼中,原被告双方律师会提交大量事实和证据,法官必须从中提炼争点、找出分歧所在。实际上,这一‘要件整理’是实务中最繁重的工作。只要AI能协助这一点,法官的负担就能大幅减轻。
下一步,就是判决书草稿。AI生成多个判决方案,法官从中选择最合理的一个,加以修正、补充,最终形成正式判决。”
那么,AI真正“判案”的那一天会到来吗?乍一看,AI裁判仿佛仍是科幻情节,但太田教授认为:
“我认为,AI作出判决的阶段终究会到来。尤其是在判决模式高度固定的领域,AI的优势非常明显。例如:简易(基层)法院管辖的涉案金额在60万日元以下的小额案件、交通事故、按月收费服务纠纷、押金返还、货款拖欠、个人之间的金钱借贷可能会采取这样的模式:先由AI作出判决,如当事人不服,再上诉由人类法官重新审理。但这种系统在日本完全落地,可能还需要30年左右。”
事实上,在eBay、Amazon等电商平台中,“在线纠纷解决机制(ODR)”早已被广泛使用。配送问题、商品质量、费用纠纷等,往往通过在线表单与AI仲裁机制半自动处理;若用户不接受AI的判断,还可转由人工客服介入。
三、一定要为人类判断留下空间

即便如此,并非所有判决都能交给AI。在需要价值判断、伦理考量、无法完全用规则切割的领域,人类仍不可或缺。
“例如量刑问题。假设依照既往判例,杀人案件判处20年有期徒刑,那么为什么3年太短、40年又太长?这一点很难用完全理性的方式说明。这里不可避免地包含了社会感受与价值观。
此外,AI所学习的数据本身就反映了人类社会的偏见——性别歧视、种族歧视、年龄歧视等。如果不加控制,AI只会照单全收并再生产这些偏见。因此,必须保留由人类进行最终检查的流程,即坚持‘Human in the Loop(HITL)原则’。”
各国价值观不同,对AI司法的接受程度也不同。像电影中那样完全由AI掌控司法的世界,现实中并不太可能出现。但作为辅助人类判断、在部分领域自动给出结论建议的“搭档型AI裁判”正稳步走向现实。
(作者:福永洋一;译者:马敬,西北师范大学法学院副教授,明治大学法学部客座研究员)
编辑:中法研


