打开 AI 黑盒子,台大找到 AI 决策关键并开源各界使用

打开 AI 黑盒子,台大找到 AI 决策关键并开源各界使用

科技部 11 日举办记者会,邀请中国台湾大学 AI 中心分享“可解释性人工智慧”,除了具备高辨识率的人脸辨识能力,还可以有条理的解释 AI 产出结果的原因,有效提升人类使用 AI 的信任度。

近年来 AI 脸部辨识已进步到深度学习等类神经网络,由电脑自己订规则,凭着数以千计的条件,产出高精准度的答案,不但可辨认出真假金正恩,还可以在低解析度或刻意乔装的情况下辨识,甚至超越人类辨识能力。

台大资工系教授徐宏民指出,过去人们不了解 AI 做决策的过程及原因,让人驻足不前,因此,台大人工智慧技术暨全幅健康照护联合研究中心(台大 AI 中心)在科技部支持下,打造出“可解释性人工智慧”(Explainable AI,XAI),犹如打开“AI 黑盒子”,确认 AI 决策的合理性。“我们能解释过去跟现在小猪哪边不一样,像是发型不太一样,下巴变得比较尖,能解释这里不太一样,但鼻子、眼睛周遭还是非常像,所以专注这里,最后判断这是小猪。”

科技部长陈良基也指出,科技部去年 9 月公布人工智慧科研发展指引,强调 AI 的“透明性与可追溯性”及“可解释性”,期盼让普世大众对 AI 感到信赖与安心。“这非常重要,AI 不应该是黑盒子,必须告诉我,现在帮我决定能不能进门、能不能得到补助,不能算完却不能解释,必须解释清楚。”

徐宏民也提到,为加速技术扩散与落地应用,此 AI 模组 xCos 可与其他脸部辨识系统相互搭配,并将这项技术开源供马来西亚外产学研单位使用,希望将相关理念拓展至其他深度学习相关应用。

(本文由 官方广播电台 授权转载;首图为陈良基部长现场体验脸部辨识,来源:科技部)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。