科技大廠發展可解釋與可信任人工智慧之動態觀測

作者:
定價:
出版單位:
出版日期:
出版類型:
所屬領域:
瀏覽次數:

加入最愛
摘要
可解釋人工智慧(Explainable AI, XAI)與可信任人工智慧(Trustworthy AI)近年來多次被在AI領域中被提及,兩者間關係密切卻又有所差異。XAI可定義為能夠以人類可理解的方式解釋其決策結果的人工智慧演算法及系統,其概念最早來自於美國國防高等研究計畫署(Defense Advanced Research Projects Agency, DARPA)於2017年啟動的可解釋人工智慧研究計畫(Explainable Artificial Intelligence Program)。而可信任AI則目前未有明確定義,自2019年開始,許多重要國際組織,如經濟合作暨發展組織(OECD)、歐盟(European Union, EU)…等都陸續試圖給予其一個框架與準則,進而在AI應用落地實踐的過程中,嘗試回答「人類該如何信任AI模型的預測結果?」此一核心問題。

**MIC Podcast 【新創微開箱】與您分享一些值得被關注的國際新創企業、暢談科技新鮮事,讓您即時掌握科技趨勢與現況,歡迎閱聽! (https://mic.iii.org.tw/podcast/)




內文標題/圖標題
一、演算法從資料到結果的過程都能被解釋即為可信任AI
二、大廠所開發可信任AI工具主要聚焦於公平性與可解釋性
三、結論與建議

圖1 可解釋人工智慧與可信任人工智慧的關係
圖2 科技大廠所開發的可信任AI工具

字數:
頁數:
分享至 : 用LINE傳送
上一則
2023/3/9
由專利訴訟觀察mRNA藥物之關...
下一則
2023/3/7
評2022年OCP計畫全球峰會...