世界頂尖的人臉辨識技術再精進
曾在2018年全球三大電腦視覺會議CVPR的偽人臉辨識競賽(Disguised Faces in the Wild)中,徐宏民教授即帶領臺大團隊以辨識率唯一超過9成之姿,技壓群雄奪下全球冠軍。在科技部的長期支持下,自2011年便開發出第一套行動裝置上的人臉搜尋系統,之後不斷自我挑戰包括跨年紀的臉部辨識能力、偽裝人臉辨識等;團隊並於過去三年透過產學合作,協助幾家軟硬體公司開發人臉辨識產品。在深度模型設計過程中會遭遇AI人臉辨識結果跟我們大腦直覺無法吻合的案例,不曉得判斷的依據為何。為解決這樣的問題,團隊花了一年多的時間開發了可解釋性人工智慧(Explainable AI ,XAI)模組xCos,可以成功解釋為何兩張人臉會辨識為同一人(或另一人)的原因,提出AI黑盒子的決策依據、協助人臉辨識產品開發,同時xCos會自動留意人臉不自然的表面而專注在真實以及具辨識能力的人臉位置,進而達到偽裝人臉辨識的效果。且經過測試,就算搭配不同的人臉辨識軟體,亦能發揮同樣的功能。
可解釋性與高相容性,加速相關應用技術開發與產業提升
徐宏民教授說,這套XAI模組xCos除了可供末端的使用者了解人臉辨識結果的原因外,更可協助開發人員探究及檢視系統的運作機制,該團隊為加速技術擴散與落地應用,所研發之可解釋性AI模組xCos可與其他人臉辨識系統作相互搭配,團隊亦已將這項技術以Open Source方式供國內外產學研單位使用(https://github.com/ntubiolin/xcos),希望將其相關理念拓展至其他深度學習相關應用中,同時也正將XAI技術擴展到其他領域關鍵性的人工智慧決策系統,如AI僅告知發電廠未來1小時是否要增加發電量,但XAI可以補充說明是因為預測氣候的改變或今日有特殊節慶等;AI可以說出X光片是否有肺炎徵兆,但XAI可更進一步解釋判斷的依據以及指出病徵的位置,這些XAI的應用,都可強化人民對AI的信任,更可協助系統開發人員進一步檢視AI判斷是否合理,便以改善與強化AI模型,進而促進國內外AI技術與相關產業進展,未來並希望將其理念拓展至其他AI深度學習相關應用中,同時也正將XAI技術擴展到其他領域關鍵性的AI決策系統,像是醫療與能源方面。
新聞延伸閱讀:
打破AI黑盒子-可解釋性的人臉辨識模組
https://www.most.gov.tw/folksonomy/detail/906337b9-1d19-4e06-ad71-322b12531971
iThome
讓 AI 不再黑箱,科技部與台大發表 XAI 可解釋性人工智慧模組 xCos
https://www.inside.com.tw/article/19755-Taiwan-Explainable-AI-xCos
INSIDE
打開 AI 黑盒子,台大找到 AI 決策關鍵並開源各界使用
https://technews.tw/2020/05/11/xcos-an-explainable-cosine-metric-for-face-verification-task/
TechNews
不解人工智慧決策理由 台大團隊AI研究取得新進展
https://news.ltn.com.tw/news/life/breakingnews/3161898
自由時報
可解釋性人臉辨識 台大資工成功開發
https://news.pts.org.tw/article/478226
公視
台研究團隊AI突破性發展 打破決策黑盒子
https://www.cna.com.tw/news/ait/202005110089.aspx
中央社
科技部AI創新研究可解釋性的人臉辨識模組
https://money.udn.com/money/story/10860/4555737
經濟日報
打開AI黑盒子 台大找到AI決策關鍵並公開給各界使用
https://www.rti.org.tw/news/view/id/2063529
中央廣播電台
可解釋性AI人臉辨識模組 獲關鍵突破
https://www.chinatimes.com/newspapers/20200512000271-260206
工商時報
科技部、台大新突破 解釋AI判讀
https://www.chinatimes.com/newspapers/20200512000240-260204?chdtv
工商時報
AI決策若「可解釋」 陳良基:能提升信任
https://www.anntw.com/articles/20200511-sZls
台灣醒報
可解釋性的人臉辨識模組 提升人類對AI信任度
https://news.m.pchome.com.tw/living/eradio/20200511/index-58917554763586217009.html
教育廣播電台
台研究團隊AI突破性發展 打破決策黑盒子
https://www.setn.com/News.aspx?NewsID=740931
三立新聞網
台研究團隊AI突破性發展 打破決策黑盒子
https://udn.com/news/story/7238/4555133
聯合報
Videos
打開AI黑盒子 台大找到AI決策關鍵並公開給各界使用
https://www.youtube.com/watch?v=AfFwfoY9vJ4
中央廣播電台
可解釋性人臉辨識 台大資工成功開發
https://www.youtube.com/watch?v=yqu5JBOX4HU
公視中晝新聞
AI決策若「可解釋」 陳良基:能提升信任
https://www.youtube.com/watch?v=jJXofJ68EJE
科技部記者會精彩照片分享:

