可信任人工智慧和人工智慧治理的監管系統
在工業製造中,嵌入式AI電腦可以支援運算、影像等處理,提高使用者在作業上的效率即準確性。隨著人工智慧的趨勢逐漸升溫,在商務、製造、金融、健康醫療、交通運輸等領域,都能看到人工智慧協助產業的分析與決策所帶來的價值。然而,人工智慧推論的過程中,風險涉及的議題,包含隱私保護、安全性、系統透明等都是需要被檢視是否有誤或對人類產生危害的部分。
針對AI 系統的治理議題,如何透過風險管理及機制確保AI的可信任性,已成為全球多數國家、國際組織高度重視的議題。在2019年OECD發布AI原則、美國政府提出美國人工智慧倡議;2020年美國政府發布人工智慧應用監管指南及13960號行政命令在AI創新及政策上取得平衡;2021年歐盟執委會提出人工智慧法草案。為了達成可信任AI,國際間陸續嘗試透過立法、規範制定來系統性測量、評估AI所涉及的風險及效益。
美國國家標準與技術研究院積極投入研究人工智慧系統可信任度的評估、測量規範、定義。2021年,研究院提出倡議,旨在人工智慧系統能否被適當、準確的衡量並列出八個特徵,有效且可靠、安全性、可歸責與資訊透明度、可解釋性與可詮譯性、隱私保護、公平性—有害偏見管理,在技術、社會環境、管理等面向來衡量人工智慧及人工智慧提供的決策。
我們下周再見囉! :)
2024-08-26