根據《金融業運用人工智慧(AI)指引》第二章「重視公平性 (Fairness) 及以人為本 (Human-centricity) 的價值觀」,該原則明確指出金融機構在使用 AI 系統過程中,應儘可能避免演算法之偏見所造成的不公平,並應符合以人為本及人類可控之原則。
#3
★★★★★
在 AI 治理中,問責性 (Accountability) 的概念是指?
A
AI 系統必須能夠解釋其所有決策過程。
B
對於 AI 系統的行為及其產生的後果,應有明確的責任歸屬。
C
AI 開發者必須公開所有演算法的原始碼。
D
使用者必須對 AI 系統的所有輸出結果負責。
答案解析
問責性 (Accountability) 是 AI 治理的核心原則之一。它強調需要能夠確定誰(或哪個組織)對 AI 系統的設計、開發、部署和運營及其結果負責。這涉及到建立清晰的治理架構、角色和責任、以及在出現問題或損害時的補救機制。參考《金融業運用人工智慧(AI)指引》第一章。
#4
★★★★★
在 AI 應用中,確保利害關係人能夠理解 AI 系統如何做出決策或預測,這體現了哪個治理原則?
A
公平性 (Fairness)
B
穩健性 (Robustness)
C
問責性 (Accountability)
D
透明度 (Transparency) 與可解釋性 (Explainability)
答案解析
透明度 (Transparency) 指的是 AI 系統的運作和決策過程應該是可被理解和檢視的。可解釋性 (Explainability) 則更進一步,要求能夠以人類可理解的方式說明 AI 做出特定決策的原因。這兩者對於建立信任、偵錯、確保公平性和落實問責至關重要。參考《金融業運用人工智慧(AI)指引》第五章。
#5
★★★★★
根據《金融業運用人工智慧(AI)指引》,金融機構應建立全面且有效的 AI 相關風險管理機制 (Risk Management Mechanism),並將其整合至何處?
A
僅限於資訊技術部門的作業流程。
B
獨立於現有流程之外的新管理系統。
C
現行風險管理及內部控制作業或流程中。
D
主要由外部顧問公司負責管理。
答案解析
《金融業運用人工智慧(AI)指引》第一章核心原則(二)明確指出,金融機構應建立全面且有效的 AI 相關風險管理機制,並整合至現行風險管理及內部控制作業或流程中,且應進行定期的評估及測試。這表示 AI 風險管理不應是孤立的,而應融入整體的風險控管體系。
#6
★★★★★
資料治理 (Data Governance) 在 AI 應用中的重要性體現在哪方面?
A
僅確保資料儲存的效率。
B
只管理資料的視覺化呈現。
C
確保資料的品質 (Quality)、安全 (Security)、隱私 (Privacy) 及合規性 (Compliance),為 AI 模型提供可靠的基礎。
D
主要目的是降低資料庫的成本。
答案解析
AI 系統高度依賴資料,因此資料治理 (Data Governance) 至關重要。它涵蓋了資料生命週期的管理,包括資料品質維護、資料安全防護、個人隱私保護、法規遵循(如個資法 (Personal Data Protection Act))等。良好的資料治理能確保用於訓練 AI 的數據是準確、可靠、安全且合法的,從而提升 AI 應用的有效性和可信度。參考《金融業運用人工智慧(AI)指引》第三章。
歐盟《人工智慧法案 (AI Act)》的核心是採用基於風險的分級方法。它將 AI 系統根據其可能帶來的風險程度分為不可接受風險(禁止)、高風險、有限風險和低風險/極小風險四個等級,並對不同等級的系統施加不同程度的法律要求和監管義務。風險越高的系統,需要滿足的合規要求越嚴格。參考《金融業運用人工智慧(AI)之核心原則與相關推動政策》附錄介紹。
#11
★★★★
"負責任 AI (Responsible AI)" 的核心理念是?
A
追求最快、最強大的 AI 模型。
B
將 AI 的所有決策權完全交給機器。
C
在設計、開發和部署 AI 時,積極考慮並納入倫理、公平、透明、問責等原則,以確保其對社會產生正面影響。
D
僅關注 AI 系統的技術性能和準確率。
答案解析
負責任 AI (Responsible AI) 強調在 AI 的整個生命週期中融入道德和社會考量。它不僅關注技術的實現,更關注技術的影響,旨在開發出值得信賴、符合人類價值觀並能帶來益處的 AI 系統。這需要跨領域的合作,將倫理原則轉化為具體的實踐。
#12
★★★
在 AI 治理中,進行風險評估 (Risk Assessment) 的主要目的是什麼?
A
評估 AI 專案的預算是否充足。
B
識別、分析和評估 AI 系統可能帶來的潛在危害或負面影響。
C
決定 AI 模型的最終準確率指標。
D
選擇最適合 AI 專案的程式語言。
答案解析
風險評估 (Risk Assessment) 是 AI 治理和開發過程中的關鍵步驟。其目的在於系統性地找出 AI 系統在其生命週期中可能引發的各種風險,例如技術風險(模型失效)、倫理風險(偏見、歧視)、安全風險(數據洩露)、社會風險(失業)等,並評估這些風險的可能性和影響程度,以便採取相應的緩解措施 (Mitigation Measures)。參考《金融業運用人工智慧(AI)指引》總則。
#13
★★★★
為確保 AI 系統符合個人資料保護法 (Personal Data Protection Act) 的要求,下列哪項措施不是必要的?
根據《金融業運用人工智慧(AI)指引》,指定高階主管或委員會負責 AI 相關監督管理,屬於哪個治理層面的實踐?
A
建立治理及問責機制
B
重視公平性
C
保護隱私權益
D
落實透明性
答案解析
《金融業運用人工智慧(AI)指引》第一章核心原則(一)與第三節「組織架構及問責機制」中明確提到,應指定高階主管負責 AI 相關監督管理並建立內部治理架構,例如指定足以督導跨部門業務之高階主管或委員會負責整體監督管理。這是建立清晰治理結構和落實問責的具體措施。
#17
★★★★
《公部門人工智慧應用參考手冊》4.1節中提到,AI 風險管理應涵蓋 AI 生命週期的哪些階段?
A
僅限於模型開發階段。
B
僅限於模型部署後的監控階段。
C
從專案規劃、開發、部署到維運的整個生命週期。
D
主要關注資料收集階段。
答案解析
AI 治理與風險管理應貫穿 AI 系統的整個生命週期,從最初的概念發想、資料準備、模型開發、測試驗證、部署應用,到後續的監控、維護和退役。在每個階段都可能出現不同的風險,需要採取相應的管理措施。手冊中提到建置前、建置中、建置後皆有對應風險議題。
#18
★★★★
為何透明度 (Transparency) 在 AI 治理中如此重要?
A
可以讓 AI 模型運行得更快。
B
能自動消除所有的演算法偏見。
C
有助於建立使用者信任、促進問責和發現潛在問題。
D
可以降低開發 AI 系統的成本。
答案解析
透明度 (Transparency),包括系統如何運作、使用了哪些數據、決策的邏輯等資訊的可取得性,是建立使用者和社會對 AI 系統信任的基礎。它使得監督 (Oversight) 和問責 (Accountability) 成為可能,也有助於開發者和使用者識別和修正潛在的錯誤、偏見或安全漏洞。缺乏透明度(所謂的黑箱 (Black Box) 問題)是 AI 治理的一大挑戰。
#19
★★★★
下列何者最能體現「以人為本 (Human-centric)」的 AI 設計原則?
A
追求最高的演算法效率。
B
使用最複雜的 AI 模型。
C
將人類的福祉、權利和價值觀置於 AI 系統設計和應用的核心。
D
最小化開發過程中的人力投入。
答案解析
「以人為本 (Human-centric)」是負責任 AI (Responsible AI) 和許多 AI 倫理指南的核心原則。它強調 AI 技術的發展和應用應以服務人類、增進人類福祉、尊重人權和基本自由為最終目的,而不是技術本身或單純的效率。這意味著在 AI 設計中需要考慮人的需求、感受、價值觀和潛在影響。參考《金融業運用人工智慧(AI)指引》第二章。
#20
★★★
AI 治理面臨的主要挑戰不包括下列哪個?
A
如何界定和落實問責性 (Accountability)。
B
如何解決演算法偏見 (Algorithmic Bias) 問題。
C
如何平衡創新 (Innovation) 與監管 (Regulation)。
D
如何降低電腦硬體的價格。
答案解析
AI 治理涉及複雜的倫理、法律、社會和技術問題。挑戰包括如何確保公平性 (Fairness)、問責性 (Accountability) 和透明度 (Transparency),如何管理風險 (Risk),如何處理數據隱私 (Data Privacy),以及如何制定既能促進創新又能有效監管的法規 (Regulations)。硬體價格雖然影響 AI 的普及,但不屬於 AI 治理本身的核心挑戰。
《金融業運用人工智慧(AI)指引》總則第五點「第三方業者之監督管理」及第四章原則四(二) 強調,若金融機構使用第三方開發或營運的 AI 系統,應對第三方業者進行適當的風險管理及監督。這包括事前評估第三方的專業能力、經驗、風險(如集中度風險),簽訂明確契約,並在合作過程中持續監督其是否符合相關規範(如資料保護、安全標準)。
AI 治理是一個貫穿始終的概念,需要在 AI 系統的每一個階段都納入考量。從最初的需求定義、風險評估,到資料處理、模型訓練、部署應用,再到後續的性能監控、更新維護,甚至最終的系統退役,都需要有相應的治理措施來確保其負責任地運作。參考《金融業運用人工智慧(AI)指引》及《公部門人工智慧應用參考手冊》的流程觀。
#27
★★★★
"人類可控原則"(Human Controllability Principle) 在 AI 治理中的意涵是?
A
AI 必須能夠控制人類的行為。
B
人類應始終能夠理解、監督並在必要時干預或關閉 AI 系統。
C
只有人類才能開發 AI 系統。
D
AI 系統應被設計成完全自主,無需人類干預。
答案解析
「人類可控原則」強調人類對於 AI 系統應保有最終的控制權。這意味著 AI 系統的設計應確保人類能夠理解其運作方式(透明度)、監控其行為,並在需要時能夠介入、修正甚至停止其運行,以防止不可預期或有害的後果。這是確保 AI 安全和問責的重要保障。參考《金融業運用人工智慧(AI)指引》第二章。