AI 当法官,会是正义女神的化身吗?专访中研院法学所研究员李建良

AI 当法官,会是正义女神的化身吗?专访中研院法学所研究员李建良

Alpha Go 打败人类棋王,自驾车跃跃欲试,人工智慧不仅改变世界运作的规则,也逐渐从科技跨入人文社会领域。让 AI 坐上审判席,会是追求正义的新解方吗?AI 法官是铁面无私的包青天,或者科技暴走的新危机?“研之有物”专访中研院法律学研究所特聘研究员李建良,从法学视角提供思辨观点,我们不只应审视 AI 的技术能力,也必须严肃面对规范性界线。

人工智慧变身法律小帮手

十几年前,电脑会拣土豆已经够惊奇,现在的 AI 更是大进击,能辨识人脸、驾驶汽车,根据 2019 年众多媒体报道,欧洲爱沙尼亚甚至即将推行“AI 法官”!法律事务涉及事实认定、法条解释与价值规范等多重问题,人工智慧果真已如此高“智慧”,有能力涉入复杂的法律领域?

AI 当法官,会是正义女神的化身吗?专访中研院法学所研究员李建良 AI与大数据 图2张

▲ 前两波 AI 希望电脑能像人思考,但皆失败。2010 年至今的 AI 热潮由“ 机器学习”领衔,简单来说就是我们提供大量资料,让电脑自己找出事件之间的关联规则,学会判断,在许多领域已比人类预测更精准。(Source:〈人工智慧在中国台湾〉演讲,陈昇玮)

中研院李建良特聘研究员说:“将 AI 应用到法律诉讼其实并非未来式,而是行之有年的现在式。”

在美国,近年法院已广泛运用“COMPAS”系统,这是一套由商业公司开发的 AI,帮助法官评估被告的再犯风险,为量刑准据。COMPAS 会进行大量问答调查,依据被告回答、年龄、过往犯罪纪录与类型等各项资料,推估被告的再犯率,给出 1~10 危险指数,最后由法官决定被告服刑的长短。

有研究指出,AI 判定为高风险者,63% 在交保期间犯罪,其中 5% 犯下性Q或谋杀。身为法官小帮手,AI 似乎确实能发挥一定程度的“鹰眼”,预测危险性。

AI 当法官,会是正义女神的化身吗?专访中研院法学所研究员李建良 AI与大数据 图3张

▲马来西亚也逐步尝试将 AI 运用在量刑与家事判决预测。司法院建立的“量刑趋势建议系统”,以自然语言分析判决书,提供类似案件的量刑参考。清华大学研究团队则开发出“AI 人工智慧协助家事判决预测系统”,让 AI 从判例“学会”法官的判决模式,预测抚养权花落谁家。(Source:量刑趋势建议系统)

法官不是人?别急,再等等

从现况来看,人工智慧确实已进入地区司法系统,但目前仍为“专家团队”扮演辅助角色,由法官裁决。那下一步, AI 有可能独当一面坐上审判席吗?

爱沙尼亚的 AI 法官计划,似乎就朝着这个方向前进。

据报道,AI 法官将处理小额民事诉讼案件(少于 7 千欧元,台币约 24 万元),由原告方输入诉讼对象、金额、提告理由等。AI 系统能从过往大量判例学习,解析法条做出判决。换句话说,隔壁邻居摔坏你的 iPhone,你一状告到法院,会由 AI 判定谁胜诉,邻居该赔你一台手机或折价金额。对结果不服?可以上诉,将有人类法官审理。这项超级计划如果成真,“法官不是人”恐怕就要从骂人话变为描述句了!

不过,李建良特别澄清:“媒体报道后,研究团队成员曾请教爱沙尼亚法界人士,目前所知这是数位官方计划的一部分,但应该还只停在‘计划’阶段。”

他强调,若要把地区审判权完全交给 AI ,必定需要法源基础,明确建立一套法规方案。由于目前爱沙尼亚并没有出现相关法规,这个突破仍是“只闻楼梯响”。

AI 法官的技术边界:它能做出好判决吗?

尽管 AI 尚未披上法官袍,但爱沙尼亚构想仿佛是惊天一雷,预示出可能的未来图像。许多人或许有同样的好奇:AI 当法官究竟行不行?

李建良分成不同层次来讨论:

行不行有两层涵义:能力行不行,规范可不可以。

第一层次是“可能性”问题:AI 法官足以担任人类法官的角色吗?更直白地问:AI 真有那么厉害,能做出好判决?

要确认 AI 的能力,首先我们得问:什么是好判决?

“这牵涉社会对法院判决的评断标准”,李建良分析,一种标准是检视“判决结果”;另一种则是审视“判决理由”,法官在判决书详述的心证,如调查结果、采信哪些证据、证据效力、法条依据等。

若观察近年中国台湾社会的现象,大众似乎较关注判决结果。好比引发社会瞩目的“台铁杀警案”,这桩尚未确定的争议案件,引发了司法当局对司法鉴定制度的重视与检讨,而舆论哗然多半是杀人无罪的结论,批评法官“不接地气”,关于心证过程的讨论相对较少些。

换言之,假如重视结果,那不难想像 AI 法官有能力透过归纳、类比分析对案件做出判决。但若我们在乎法官为什么、如何做出裁决,依照目前技术和爱沙尼亚计划,AI 所产出的可能只有答案,但没有理由(或较简式的理由)。

这形成了第一重挑战:

若 AI 法官无法清楚说明理由,我们如何检视它的判决好不好?有没有瑕疵?

有些人也质疑,AI 的精准一致可能反倒是弱点。现行 AI 不具真正理解他人的能力,无法实际参与答辩交锋和开庭审理,而许多讯息来自临场、个别案例的判读,并非用数据化与资料化就足够解释,背后涉及文化、风俗、情境常识,相当复杂。

AI 当法官,会是正义女神的化身吗?专访中研院法学所研究员李建良 AI与大数据 图4张

▲目前的人工智慧仍属于“弱 AI”,没有意识、思考能力,只是透过巨量资料与机器学习归纳出已知和未知之间的关联。哲学家 John Searle 曾用“中文房”譬喻提出挑战:如果 AI 并不了解真正意涵,就算它能和人一样做出正确回应,似乎也不代表它就有独立的心灵意识。

不过,AI 派并没有全输!

首先,技术可能超前突破,让 AI 未来也有能力写判决书、说明论证。另外若拿现行制度相比,美国陪审制同样只宣告:“陪审团认为无罪”,不会附上理由。更何况所谓的情境判断,经常也会造成主观性偏误,《美国地区科学院院刊》(PNAS)研究发现,接近午餐时间法官对假释认定较严格,用餐休息后,假释审查就变宽松了!

想要假释,还得祈祷法官吃饱饱?恐怕多数人难以接受。

铁面无私包青天?小心 AI 的内建歧视

总地来说,理性、客观几乎是 AI 的最大光环,以准确一致的逻辑做判断,不受法官个人情绪与好恶影响。

但真是这样吗?许多研究证实:AI 默默戴上有色眼镜!COMPAS 系统被抨击有种族歧视,有色人种更容易被预测为高再犯率;亚马逊招聘、苹果信用卡信贷系统都曾发现隐含性别差别待遇。

“这就如同人类一路走来看到的历史不平等”,亚马逊资讯科学家说。

AI 系统资料学习的过程,复制人类长年累积的性别、种族、阶级偏见。即便这些偏见已长久存在,但 AI 可能更强化不平等,因为人们会在毫无所觉下,信任科技工具的“客观”讯息,帮陌生人打分数。

然而,科技支持派没有全盘放弃。AI 歧视是学来的,因应之策是在资料训练时降低这些“标签”,并且提供多样性的资料。此外,比起人类刻意包装、掩饰偏见,AI 反而有机会让偏误被“显题化”,让我们更加警觉,并进行修正。

综合而论,若单从技术可能性评估,目前 AI 也许不够“聪明”,但是只要科技持续追求突破、进展,似乎没有理由全盘否定 AI 法官可行性。毕竟,人类同样也会犯错、误判、有偏见。

“从能力来看,AI 确实可以帮助人类、补位弱点,很值得期待未来发展。”李建良持平分析:“但地区是否应该开放制度,更重要的仍在第二层次的考量。”

AI 法官需要明确法源基础

他点出更关键的第二层议题:从规范角度来看,让 AI 当法官可不可以?

简单来说,即使人工智慧有能力独立分析、判决,我们应该把审判大权交给 AI 吗?是否可能衍生伦理问题?

“第一个遇到的是:需不需要修宪?这是多数人忽略的框架。”专研宪法、行政法的李建良特别指出。法官的身分保障及审判独立的要求是直接写在宪法里的,但宪法规定的法官是不是专指“人”呢?法学界可能有不同论述。

如果宪法说的法官专指“人”,也就是法官审判权奠基在人的前提,势必需要修宪。反之,就算宪法允许“非人”担任法官,仍然需要修法──如同刚拍板的《马来西亚人法官法》,地区同样必须建立一套法制来规范非人法官。例如,适用民事或刑事案件?能上诉吗?上诉后交给另一位 AI 法官(AI 会有不同法官吗?),或由人类法官打掉重来?

价值选择的难题:科技优势 vs. 法律原则

法源基础仅是第一步,对整个社会而言,AI 法官挑战的是价值选择的难题。

2013 年,美国威斯康辛州法院参酌 COMPAS 风险指标,判处被告 Eric Loomis 6 年徒刑。Loomis 不服而上诉最高法院,认为法庭以 AI 系统裁决是一种“秘密审判”!要求说明 COMPAS 系统如何演算判断出危险值。

这个案例显然暴露 AI 法官的价值冲突:演算法黑箱(black box)。

“在民主法治地区,法官不是个人,他代表的是地区。审判必须在公开透明的运作下,被监督、检验、究责。”李建良说:“法院公开审理、法官说明判决理由,都是来自这种被检验的要求。”

倘若披上法官袍的 AI ,无法开庭、诘问、说明判决理由,让审判摊在阳光下,势必挑战现行的法院体制,也可能稀释透明、公开、负责的司法价值。我们无从知道 AI 为何会做出 A 判决,而不是 B 判决,不能确定有没有失误,也难以确认责任归属。

Loomis 案也突显另一挑战:代罪羔羊。AI 推测过往资料,但“相似条件的其他人这么做,不代表个别主体也会这么做”。

这同时让人担忧 AI 的“因袭性”:社会信仰的美好价值是不断翻转、改变,有时正是因为划时代的法院判决,才让我们终于能破除传统、确立新价值,例如美国法院推翻种族隔离平等制度,AI 法官会不会弱化、压缩了法律肩负的深刻意义?

李建良直言,第一层次的“能力可行性”是人与 AI 的比较参照,AI 能做到什么,补足哪些人类弱点,带来什么优势。

但最终,“伦理辩证”仍是无可回避的关键核心,当新科技打破、抵触基本价值,我们是否愿意为了科技可能提供的“客观公正”,放弃退让这些原则?

AI 当法官,会是正义女神的化身吗?专访中研院法学所研究员李建良 AI与大数据 图5张

▲我们愿意授权一套科技系统,让它判定人们是否有罪,剥夺我们的人身自由(甚至生命)吗?李建良认为,AI 法官的伦理争议势必挑战人类的信任边界,最终将深刻探问人类对科技制度的核心信念。(Source:shutterstock)

人文关怀,也是艰困的价值论辩

“这不会是全面赞成/反对的选择题,因为 AI 法官很难普遍性适用每种案件”,李建良强调。

AI 在资料统整、数据分析已大放异彩,导入科技新工具、人机合作,可以减轻法院负担,也拉近一般人与诉讼裁决的距离。然而,法律范畴高度复杂,即便未来开放 AI 法官,也必定是在特定的条件、脉络与案型。

他以行政法说明,“大埔农地要不要征收?美丽湾渡假村能不能盖?这类行政法案件极度复杂,牵涉环保、制度、法规多重冲突,还有价值选择的命题,不太可能由 AI 独立裁决。”

更重要的是,即使技术边界有机会突破、修正,让 AI 越来越聪明,我们也不应回避第二层次的伦理辩证。这也正是人文学科最重要的价值关怀。

“我们很容易倒过来想,认为有这么多好处,为什么不开放、不使用?但人文学者关注的是价值伦理,一旦越过某些界线,无论多少优势,我们都必须谨慎严肃地看待。”李建良提出艰难考验类比:

当你明确知道这人是凶手,却没有任何证据,这时我们要不要放弃无罪推定,不计手段坚持罪有应得?这就是价值选择的论辩。很困难,但很重要!

(作者:刘芝吟;本文由 研之有物 授权转载)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。