AI 撰写判决书,会不会“制造”更多有罪的人?

AI 撰写判决书,会不会“制造”更多有罪的人?

前阵子司法院预计将 AI 导入判决系统,试图去减轻司法负担。法官与检察官背负的案量日渐遽增,大部分是诈骗案件,而生成式 AI 能否协助减轻撰写判决书的工作?的确初期是以无法安全驾驶、诈欺等大量且形式雷同的案件做起,或是支付命令这些较少人为判断的案件,但我们关心的是,能否减少冤案,还是持续“复制”判决?

首先,我们要担心的是“复制偏误”。积非成是这成语大多人听过,但对于司法冤案的产生,却不是每个人都了解的,除非他遭遇到司法困境。

而在开发的前期,大多参考了司法院既有的查询系统与判例做为AI学习的样本;但司法是与时俱进的,例如通奸除罪化、删除了刑法239条,而早期的判例可能会偏向某种归因,而欠缺了对于当事人的其他考量。例如贫穷、被胁迫、被教唆等,或大量复制了过往的偏误,如种族歧视、性别歧视、多元性别等近几年才被平反的观念,司法院有评估过这样累积的风险吗?

审理案件是个复杂的判断与推敲的过程,例如未成年的孩子去当运毒的车手,就法条解释上它的确是有罪,但未能考虑当事人经济条件、受困于无可奈何的困境,不是阅读文字与卷宗就能够理解的,况且每个法官的判准与裁量也不尽相同,同样一条罪名还是有不同程度的判决结果,不能被归因或者标准化。且一旦民众得知司法系统使用AI判决,就跟汽车自动驾驶技术类似,这并无法屏除人为介入做最后的判断,最后造成司法的公信力丧失。

虽然司法院非常迅速的提出了回复,认为科技进步使然,也有限定使用范围、使用的程式语言为TMT5语言模型架构,且主机不对外连线等防护措施,且目前只采用例稿撰写。而在民间团体召开记者会提出各项质疑后,司法院也从善如流暂缓了开发。在尚未确认判例与资料引用的范围、判决产生的偏误以及风险之前,我们对于AI撰写的文字仍要保持怀疑的态度。而包含后续的着作权、文字产生效益的责任归属等,都是未知的领域。

一方面也有法官持乐观态度,认为若能减轻司法负担,何尝不是一件好事?前阵子因为案量与人力负担过重,有三十几位法官与检察官相继离职;笔者认为,增加法官助理,分案到不同的层级与法院,将案件分流,例如行政命令或是一定裁罚的量,或非重大刑案等,也许可以分给AI做为初阶的卷案与判例的生成,但审判与法条的引用,目前AI似乎还是无法完全取代人类,毕竟怜悯、虚假意思表示、翻供、胁迫等非难之罪,岂能单靠经验做判决?AI生成的出现,的确带来便利,但我们仍要小心,不能错杀无辜。

(首图来源:Image by Freepik)

延伸阅读:

  • 欧盟推动数位服务法,言论自由不再无限上纲
  • AI 软件与艺术家的版权争议:这一回 AI 暂时获胜
  • 科学界的新伙伴:AI 如何引领科学突破
  • 资料争夺战:AI 产业所需的资料有多重要?

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。