AI创新技术-可解释性的人脸辨识模组,戴口罩也能人脸辨识!

  • 2020-05-25
  • 李依芸
  
    由本院资讯工程学系教授徐宏民( Winston Hsu ),率领其在台大AI中心与辖下的团队,于科技部5月11日记者会中精彩发表「可解释性人工智能( Explainable AI ,XAI)模组xCos」,模组除了具备高辨识率的人脸辨识能力外,还可有条理的解释AI产出结果的原因。这项技术不仅可协助业者开发AI辨识技术,更可协助开发人员探究及检视系统的运作机制,进而理解AI决策建议背后的理由,提升人类对于AI的信任度。

世界顶尖的人脸辨识技术再精进
    曾在2018年全球三大电脑视觉会议CVPR的伪人脸辨识竞赛(Disguised Faces in the Wild)中,徐宏民教授即带领台大团队以辨识率唯一超过9成之姿,技压群雄夺下全球冠军。在科技部的长期支持下,自2011年便开发出第一套行动装置上的人脸搜寻系统,之后不断自我挑战包括跨年纪的脸部辨识能力、伪装人脸辨识等;团队并于过去三年透过产学合作,协助几家软硬件公司开发人脸辨识产品。在深度模型设计过程中会遭遇AI人脸辨识结果跟我们大脑直觉无法吻合的案例,不晓得判断的依据为何。为解决这样的问题,团队花了一年多的时间开发了可解释性人工智能(Explainable AI ,XAI)模组xCos,可以成功解释为何两张人脸会辨识为同一人(或另一人)的原因,提出AI黑盒子的决策依据、协助人脸辨识产品开发,同时xCos会自动留意人脸不自然的表面而专注在真实以及具辨识能力的人脸位置,进而达到伪装人脸辨识的效果。且经过测试,就算搭配不同的人脸辨识软件,亦能发挥同样的功能。

可解释性与高相容性,加速相关应用技术开发与产业提升
    徐宏民教授说,这套XAI模组xCos除了可供末端的使用者了解人脸辨识结果的原因外,更可协助开发人员探究及检视系统的运作机制,该团队为加速技术扩散与落地应用,所研发之可解释性AI模组xCos可与其他人脸辨识系统作相互搭配,团队亦已将这项技术以Open Source方式供国内外产学研单位使用(https://github.com/ntubiolin/xcos),希望将其相关理念拓展至其他深度学习相关应用中,同时也正将XAI技术扩展到其他领域关键性的人工智能决策系统,如AI仅告知发电厂未来1小时是否要增加发电量,但XAI可以补充说明是因为预测气候的改变或今日有特殊节日等;AI可以说出X光片是否有肺炎征兆,但XAI可更进一步解释判断的依据以及指出病征的位置,这些XAI的应用,都可强化人民对AI的信任,更可协助系统开发人员进一步检视AI判断是否合理,便以改善与强化AI模型,进而促进国内外AI技术与相关产业进展,未来并希望将其理念拓展至其他AI深度学习相关应用中,同时也正将XAI技术扩展到其他领域关键性的AI决策系统,像是医疗与能源方面。

新闻延伸阅读: 
   打破AI黑盒子-可解释性的人脸辨识模组
   https://www.most.gov.tw/folksonomy/detail/906337b9-1d19-4e06-ad71-322b12531971
  iThome
   AI 不再黑箱,科技部与台大发表 XAI 可解释性人工智能模组 xCos
  https://www.inside.com.tw/article/19755-Taiwan-Explainable-AI-xCos
  INSIDE
  打开 AI 黑盒子,台大找到 AI 决策关键并开源各界使用
  https://technews.tw/2020/05/11/xcos-an-explainable-cosine-metric-for-face-verification-task/
  TechNews
  不解人工智能决策理由 台大团队AI研究取得新进展
  
https://news.ltn.com.tw/news/life/breakingnews/3161898
  自由时报
  可解释性人脸辨识 台大资工成功开发
  https://news.pts.org.tw/article/478226
  公视
  台研究团队AI突破性发展 打破决策黑盒子
  https://www.cna.com.tw/news/ait/202005110089.aspx
  中央社
  科技部AI创新研究可解释性的人脸辨识模组
  https://money.udn.com/money/story/10860/4555737
  经济日报
  打开AI黑盒子 台大找到AI决策关键并公开给各界使用
  https://www.rti.org.tw/news/view/id/2063529
  中央广播电台
  可解释性AI人脸辨识模组 获关键突破
   https://www.chinatimes.com/newspapers/20200512000271-260206
  工商时报
  科技部、台大新突破 解释AI判读
   https://www.chinatimes.com/newspapers/20200512000240-260204?chdtv
  工商时报
   AI决策若「可解释」 陈良基:能提升信任
   https://www.anntw.com/articles/20200511-sZls
   台湾醒报
   可解释性的人脸辨识模组 提升人类对AI信任度
    https://news.m.pchome.com.tw/living/eradio/20200511/index-58917554763586217009.html
    教育广播电台
    台研究团队AI突破性发展 打破决策黑盒子
    https://www.setn.com/News.aspx?NewsID=740931
    三立新闻网
   台研究团队AI突破性发展 打破决策黑盒子
   https://udn.com/news/story/7238/4555133
   联合报
 
Videos
    打开AI黑盒子 台大找到AI决策关键并公开给各界使用
    https://www.youtube.com/watch?v=AfFwfoY9vJ4
    中央广播电台
    可解释性人脸辨识 台大资工成功开发
    https://www.youtube.com/watch?v=yqu5JBOX4HU
    公视中昼新闻
    AI决策若「可解释」 陈良基:能提升信任
    https://www.youtube.com/watch?v=jJXofJ68EJE


科技部记者会精彩照片分享:

This is an image

This is an image

This is an image