可信任AI發展趨勢

作者:
定價:
出版單位:
出版日期:
出版類型:
所屬領域:
瀏覽次數:

加入最愛
摘要
隨著AI藉由大量學習人類行為的數據,生成式AI技術與應用普及,雖然大幅提升了生產效率,但由資料、演算法所出現的偏差(Bias),開始導致機器採取了錯誤決策,反映出AI在不知不覺中也學會了人類的歧視與偏見。而演算法黑箱的問題,使得開發者也無法理解做出機器進行決策的脈絡,進而無從進行校正甚至究責。此外,人們也再一次意識到AI可能產生隱私洩漏、惡意濫用等潛在危害的嚴重性。讓「信任」逐漸成為全球重視的議題,進而催生對可信任AI(Trustworthy AI)的需求。如何讓AI能保護數據隱私,且更具有公平性、透明性與可解釋性、穩健性與安全性,以及最重要的可問責性,成為探討可信任AI的核心精神。
全球各國如OECD、歐盟、美國NIST等也紛紛推出可信任AI倫理準則。2023年12月更針了蓬勃發展的生成式AI批准了相對應的法案。可見AI潛在危害不論對於個人層級,甚至對國家層級的影響都相當深遠,不得不謹而慎之。以下分析全球可信任AI監管規範與產業發展現況歸納出三大趨勢。


內文標題/圖標題
一、前言
二、全球AI治理監管框架漸趨具體
三、對於可信任原則差異化需求將成產業發展契機
四、DevOps未來將朝TrustAIOps發展
五、未來展望

圖1 全球AI治理監管框架漸趨具體化
圖2 對於可信任差異化需求將成產業發展契機
圖3 MLOps結合可信任原則轉化為TrustAIOps

字數:
頁數:
分享至 : 用LINE傳送
上一則
2023/12/25
AI代理之發展與影響
下一則
2023/12/25
2023年重要產業技術-智慧服...