考試重點整理 - 50個高頻考點
本文件整理了「金融業運用人工智慧(AI)指引」中最重要的50個考試重點,涵蓋AI系統定義、生命週期、風險評估、核心原則等關鍵內容。每個重點都經過精心挑選,代表了考試中出現機率較高的知識點。
AI系統定義:透過大量資料學習,利用機器學習或相關建立模型之演算法,進行感知、預測、決策、規劃、推理、溝通等模仿人類學習、思考及反應模式之系統。
生成式AI定義:可以生成模擬人類智慧創造之內容的相關AI系統,其內容形式包括但不限於文章、圖像、音訊、影片及程式碼等。
AI系統生命週期包含四個主要階段:系統規劃及設計、資料蒐集及輸入、模型建立及驗證、系統部署及監控。
系統規劃及設計階段:設定明確的系統目標及需求。
資料蒐集及輸入階段:資料蒐集、處理並輸入資料庫之階段。
模型建立及驗證階段:選擇與建立模型演算法及訓練模型,並對模型進行驗證以確保模型效能、安全性與機密性。
系統部署及監控階段:將系統應用於實際環境中,且關注模型是否已完備,並持續監控以確認系統所帶來之潛在影響。
風險評估考量因素:是否直接提供客戶服務或對營運有重大影響、使用個人資料的程度、AI自主決策程度、AI系統的複雜性、影響不同利害關係人的程度及廣度、救濟選項之完整程度。
提供客戶服務之AI系統:AI決策結果對客戶權益或營運有重大影響之AI系統,通常有較高之風險性,例如用於信用評分、機器人理財等系統。
用於內部作業之AI系統:AI決策結果涉及監理規範之AI系統,通常有較高之風險性,例如用於法定資本適足率評估、洗錢防制等系統。
使用個人資料的程度:AI系統使用個人原始資料或機敏性個資程度越高者,可能具有較高之風險性。
AI自主決策程度:取代人類決策程度較高,或自動化學習程度較高的AI系統,可能會增加未預期之系統性負面影響,而有較高之風險性。
AI系統的複雜性:運算模型的複雜性較高或使用參數數量與類型較多的AI系統,可能降低可解釋性,而有較高之風險性。
核心原則一:建立治理及問責機制,確保AI系統的發展、部署和使用符合法規要求,並建立明確的責任歸屬。
金融機構董事會及高階管理階層應確保AI系統符合法規要求,並建立明確的責任歸屬。
金融機構應建立AI治理架構,明確定義角色、職責及問責機制。
金融機構宜整體性落實金融業AI核心原則,不宜將任何一個原則視為獨立存在。
金融機構應建立內部溝通管道,鼓勵員工對AI系統提出疑慮,並確保員工不會因提出疑慮而受到不公平對待。
核心原則二:重視公平性及以人為本的價值觀,確保AI系統的設計和使用尊重人權、多元性和公平性。
金融機構應確保AI系統的設計和使用尊重人權、多元性和公平性,避免產生歧視或偏見。
金融機構應評估AI系統可能對不同群體產生的影響,並採取措施減少不公平的結果。
金融機構應在AI系統生命週期各階段評估公平性,包括資料蒐集、模型訓練和系統部署等階段。
金融機構應確保AI系統的決策過程中保留人類監督和干預的機制,特別是在高風險決策中。
核心原則三:保護隱私及客戶權益,確保AI系統的使用符合個人資料保護法規,並尊重客戶的隱私權。
金融機構應確保AI系統的使用符合個人資料保護法規,並尊重客戶的隱私權。
金融機構應建立資料治理機制,確保資料的收集、處理和使用符合法規要求。
金融機構應提供客戶對其個人資料使用的控制權,包括查詢、更正和刪除等權利。
金融機構應建立客戶申訴和救濟機制,處理因AI系統決策而產生的爭議。
核心原則四:確保系統穩健性與安全性,建立AI系統的安全防護機制,防範資安風險和系統故障。
金融機構應建立AI系統的安全防護機制,防範資安風險和系統故障。
金融機構應定期評估AI系統的穩健性和安全性,包括對抗性測試和壓力測試。
金融機構應建立AI系統的備援和復原機制,確保系統故障時能迅速恢復正常運作。
金融機構應監控AI系統的運作狀況,及時發現和處理異常情況。
核心原則五:落實透明性與可解釋性,確保AI系統的決策過程和結果能被理解和解釋。
金融機構應確保AI系統的決策過程和結果能被理解和解釋,特別是對客戶權益有重大影響的決策。
金融機構應根據AI系統的風險等級和使用情境,決定適當的透明度和可解釋性水平。
金融機構應向客戶清楚說明AI系統的使用範圍和可能的影響,並提供適當的選擇權。
金融機構應建立機制,確保能夠解釋AI系統的決策結果,特別是在客戶提出質疑時。
核心原則六:促進永續發展,確保AI系統的使用符合環境、社會和治理(ESG)的永續發展目標。
金融機構應確保AI系統的使用符合環境、社會和治理(ESG)的永續發展目標。
金融機構應評估AI系統的能源消耗和環境影響,並採取措施減少負面影響。
金融機構應利用AI系統促進普惠金融,提升金融服務的可及性和包容性。
金融機構應考慮AI系統對社會的廣泛影響,包括就業、教育和社會福利等方面。
金融機構運用AI系統時,宜就個別使用情境所涉相關風險進行評估,並宜多分配資源於高風險的AI系統,以有效地管理風險。
金融機構可能為自行研發並使用AI系統,也可能委託第三方業者研發或購入AI系統後再部署該系統並監控。
金融機構運用AI系統時宜辨識可自行監控風險之程度,並得對自身較無控制權的部分或事項,透過契約或其他方式與合作廠商明訂風險監控責任之分工。
本指引以「導入(introduce)」AI表示系統規劃及設計、資料蒐集及輸入、模型建立及驗證三階段,以「使用(use)」AI表達系統部署及監控階段。
本指引之「運用(apply)」AI則係整體性概念,包含AI系統生命週期的四個階段。
本指引係屬行政指導性質,不具拘束力,旨在鼓勵金融業在風險可控之情況下,導入、使用及管理AI。
金融機構在運用AI系統辦理金融創新業務時,如有必要,可透過金融科技創新實驗或金融業務試辦等機制進行測試。