AI創新技術-可解釋性的人臉辨識模組,戴口罩也能人臉辨識!

  • 張貼人: 李依芸
  • /公告日期: 2020-05-25
  
    由本院資訊工程學系教授徐宏民( Winston Hsu ),率領其在臺大AI中心與轄下的團隊,於科技部5月11日記者會中精彩發表「可解釋性人工智慧( Explainable AI ,XAI)模組xCos」,模組除了具備高辨識率的人臉辨識能力外,還可有條理的解釋AI產出結果的原因。這項技術不僅可協助業者開發AI辨識技術,更可協助開發人員探究及檢視系統的運作機制,進而理解AI決策建議背後的理由,提升人類對於AI的信任度。

世界頂尖的人臉辨識技術再精進
    曾在2018年全球三大電腦視覺會議CVPR的偽人臉辨識競賽(Disguised Faces in the Wild)中,徐宏民教授即帶領臺大團隊以辨識率唯一超過9成之姿,技壓群雄奪下全球冠軍。在科技部的長期支持下,自2011年便開發出第一套行動裝置上的人臉搜尋系統,之後不斷自我挑戰包括跨年紀的臉部辨識能力、偽裝人臉辨識等;團隊並於過去三年透過產學合作,協助幾家軟硬體公司開發人臉辨識產品。在深度模型設計過程中會遭遇AI人臉辨識結果跟我們大腦直覺無法吻合的案例,不曉得判斷的依據為何。為解決這樣的問題,團隊花了一年多的時間開發了可解釋性人工智慧(Explainable AI ,XAI)模組xCos,可以成功解釋為何兩張人臉會辨識為同一人(或另一人)的原因,提出AI黑盒子的決策依據、協助人臉辨識產品開發,同時xCos會自動留意人臉不自然的表面而專注在真實以及具辨識能力的人臉位置,進而達到偽裝人臉辨識的效果。且經過測試,就算搭配不同的人臉辨識軟體,亦能發揮同樣的功能。

可解釋性與高相容性,加速相關應用技術開發與產業提升
    徐宏民教授說,這套XAI模組xCos除了可供末端的使用者了解人臉辨識結果的原因外,更可協助開發人員探究及檢視系統的運作機制,該團隊為加速技術擴散與落地應用,所研發之可解釋性AI模組xCos可與其他人臉辨識系統作相互搭配,團隊亦已將這項技術以Open Source方式供國內外產學研單位使用(https://github.com/ntubiolin/xcos),希望將其相關理念拓展至其他深度學習相關應用中,同時也正將XAI技術擴展到其他領域關鍵性的人工智慧決策系統,如AI僅告知發電廠未來1小時是否要增加發電量,但XAI可以補充說明是因為預測氣候的改變或今日有特殊節慶等;AI可以說出X光片是否有肺炎徵兆,但XAI可更進一步解釋判斷的依據以及指出病徵的位置,這些XAI的應用,都可強化人民對AI的信任,更可協助系統開發人員進一步檢視AI判斷是否合理,便以改善與強化AI模型,進而促進國內外AI技術與相關產業進展,未來並希望將其理念拓展至其他AI深度學習相關應用中,同時也正將XAI技術擴展到其他領域關鍵性的AI決策系統,像是醫療與能源方面。

新聞延伸閱讀: 
   打破AI黑盒子-可解釋性的人臉辨識模組
   https://www.most.gov.tw/folksonomy/detail/906337b9-1d19-4e06-ad71-322b12531971
  iThome
   AI 不再黑箱,科技部與台大發表 XAI 可解釋性人工智慧模組 xCos
  https://www.inside.com.tw/article/19755-Taiwan-Explainable-AI-xCos
  INSIDE
  打開 AI 黑盒子,台大找到 AI 決策關鍵並開源各界使用
  https://technews.tw/2020/05/11/xcos-an-explainable-cosine-metric-for-face-verification-task/
  TechNews
  不解人工智慧決策理由 台大團隊AI研究取得新進展
  
https://news.ltn.com.tw/news/life/breakingnews/3161898
  自由時報
  可解釋性人臉辨識 台大資工成功開發
  https://news.pts.org.tw/article/478226
  公視
  台研究團隊AI突破性發展 打破決策黑盒子
  https://www.cna.com.tw/news/ait/202005110089.aspx
  中央社
  科技部AI創新研究可解釋性的人臉辨識模組
  https://money.udn.com/money/story/10860/4555737
  經濟日報
  打開AI黑盒子 台大找到AI決策關鍵並公開給各界使用
  https://www.rti.org.tw/news/view/id/2063529
  中央廣播電台
  可解釋性AI人臉辨識模組 獲關鍵突破
   https://www.chinatimes.com/newspapers/20200512000271-260206
  工商時報
  科技部、台大新突破 解釋AI判讀
   https://www.chinatimes.com/newspapers/20200512000240-260204?chdtv
  工商時報
   AI決策若「可解釋」 陳良基:能提升信任
   https://www.anntw.com/articles/20200511-sZls
   台灣醒報
   可解釋性的人臉辨識模組 提升人類對AI信任度
    https://news.m.pchome.com.tw/living/eradio/20200511/index-58917554763586217009.html
    教育廣播電台
    台研究團隊AI突破性發展 打破決策黑盒子
    https://www.setn.com/News.aspx?NewsID=740931
    三立新聞網
   台研究團隊AI突破性發展 打破決策黑盒子
   https://udn.com/news/story/7238/4555133
   聯合報
 
Videos
    打開AI黑盒子 台大找到AI決策關鍵並公開給各界使用
    https://www.youtube.com/watch?v=AfFwfoY9vJ4
    中央廣播電台
    可解釋性人臉辨識 台大資工成功開發
    https://www.youtube.com/watch?v=yqu5JBOX4HU
    公視中晝新聞
    AI決策若「可解釋」 陳良基:能提升信任
    https://www.youtube.com/watch?v=jJXofJ68EJE


科技部記者會精彩照片分享:

This is an image

This is an image

This is an image
 
最後修改時間: 2020-05-25 17:19:00