iPAS AI應用規劃師 初級

L11102 AI治理概念
出題方向 (L11102 AI治理概念)
1
AI 治理定義與範疇
2
AI 倫理原則 (公平、負責、透明)
3
風險管理與問責機制
4
資料治理與隱私
5
法規遵循與標準
6
治理框架與組織角色
7
負責任 AI (Responsible AI)
8
AI 治理的挑戰與未來
#1
★★★★★
什麼是 AI 治理 (AI Governance)?其主要目的是什麼?
A
專注於開發更快速 AI 演算法的技術框架。
B
建立一套原則、政策、流程和機制,以確保 AI 的開發和應用符合倫理 (Ethics)法律 (Law)社會價值 (Societal Values)
C
僅指對 AI 系統進行技術性測試和驗證的過程。
D
由政府單獨制定,用以限制 AI 技術商業應用的法規。
答案解析
根據《公部門人工智慧應用參考手冊》4.5 節與《金融業運用人工智慧(AI)指引》第一章內容,AI 治理 (AI Governance) 是一個涵蓋 AI 生命週期的綜合性框架,涉及風險管理 (Risk Management)權益保障 (Rights Protection)倫理考量 (Ethical Considerations)法規遵循 (Compliance) 等多個面向。其主要目的是確保 AI 技術以負責任、安全、公平和透明的方式被開發和使用,從而最大化其益處並最小化潛在風險。
#2
★★★★★
《金融業運用人工智慧(AI)指引》中提到的六大核心原則,哪一項強調應避免演算法的偏見 (Bias) 所造成的不公平?
A
建立治理及問責機制
B
重視公平性 (Fairness)以人為本 (Human-centricity) 的價值觀
C
保護隱私及客戶權益
D
確保系統穩健性與安全性
答案解析
根據《金融業運用人工智慧(AI)指引》第二章「重視公平性 (Fairness)以人為本 (Human-centricity) 的價值觀」,該原則明確指出金融機構在使用 AI 系統過程中,應儘可能避免演算法之偏見所造成的不公平,並應符合以人為本及人類可控之原則。
#3
★★★★★
AI 治理中,問責性 (Accountability) 的概念是指?
A
AI 系統必須能夠解釋其所有決策過程。
B
對於 AI 系統的行為及其產生的後果,應有明確的責任歸屬
C
AI 開發者必須公開所有演算法的原始碼。
D
使用者必須對 AI 系統的所有輸出結果負責。
答案解析
問責性 (Accountability)AI 治理的核心原則之一。它強調需要能夠確定誰(或哪個組織)對 AI 系統的設計、開發、部署和運營及其結果負責。這涉及到建立清晰的治理架構、角色和責任、以及在出現問題或損害時的補救機制。參考《金融業運用人工智慧(AI)指引》第一章。
#4
★★★★★
AI 應用中,確保利害關係人能夠理解 AI 系統如何做出決策或預測,這體現了哪個治理原則?
A
公平性 (Fairness)
B
穩健性 (Robustness)
C
問責性 (Accountability)
D
透明度 (Transparency)可解釋性 (Explainability)
答案解析
透明度 (Transparency) 指的是 AI 系統的運作和決策過程應該是可被理解和檢視的。可解釋性 (Explainability) 則更進一步,要求能夠以人類可理解的方式說明 AI 做出特定決策的原因。這兩者對於建立信任、偵錯、確保公平性和落實問責至關重要。參考《金融業運用人工智慧(AI)指引》第五章。
#5
★★★★★
根據《金融業運用人工智慧(AI)指引》,金融機構應建立全面且有效的 AI 相關風險管理機制 (Risk Management Mechanism),並將其整合至何處?
A
僅限於資訊技術部門的作業流程。
B
獨立於現有流程之外的新管理系統。
C
現行風險管理及內部控制作業或流程中
D
主要由外部顧問公司負責管理。
答案解析
《金融業運用人工智慧(AI)指引》第一章核心原則(二)明確指出,金融機構應建立全面且有效的 AI 相關風險管理機制,並整合至現行風險管理及內部控制作業或流程中,且應進行定期的評估及測試。這表示 AI 風險管理不應是孤立的,而應融入整體的風險控管體系。
#6
★★★★★
資料治理 (Data Governance)AI 應用中的重要性體現在哪方面?
A
僅確保資料儲存的效率。
B
只管理資料的視覺化呈現。
C
確保資料的品質 (Quality)安全 (Security)隱私 (Privacy)合規性 (Compliance),為 AI 模型提供可靠的基礎。
D
主要目的是降低資料庫的成本。
答案解析
AI 系統高度依賴資料,因此資料治理 (Data Governance) 至關重要。它涵蓋了資料生命週期的管理,包括資料品質維護、資料安全防護、個人隱私保護、法規遵循(如個資法 (Personal Data Protection Act))等。良好的資料治理能確保用於訓練 AI 的數據是準確、可靠、安全且合法的,從而提升 AI 應用的有效性和可信度。參考《金融業運用人工智慧(AI)指引》第三章。
#7
★★★★
根據《公部門人工智慧應用參考手冊》4.5節,建立AI 治理委員會 (AI Governance Committee) 的主要目的是?
A
直接負責撰寫 AI 模型的程式碼。
B
專門處理 AI 相關的技術支援問題。
C
負責 AI 發展的監督、管理和策略制定,確保符合倫理和法規。
D
主要任務是採購 AI 所需的硬體設備。
答案解析
建立治理委員會 (Governance Committee) 是落實 AI 治理的重要組織措施。其主要職責是從宏觀層面指導和監督組織的 AI 發展,包括制定 AI 策略、建立倫理準則、審核高風險應用、確保法規遵循、協調跨部門合作等,以確保 AI 的應用與組織的價值觀和目標一致。
#8
★★★★
《金融業運用人工智慧(AI)指引》建議金融機構應確保其人員對 AI 有足夠的知識及能力,並應以何種基礎做出適當之決策及監督?
A
以成本效益為基礎。
B
以技術先進性為基礎。
C
風險 (Risk) 為基礎
D
以市場佔有率為基礎。
答案解析
根據《金融業運用人工智慧(AI)指引》第一章核心原則(三),金融機構應確保其人員對 AI 有足夠之知識及能力,並應以風險為基礎 (Risk-based Approach) 做出適當之決策及監督。這意味著對於風險較高的 AI 應用,需要投入更多資源進行審查、監控,並要求相關人員具備更高水平的專業知識。
#9
★★★★
在處理個人資料 (Personal Data) 時,AI 治理應遵循的首要原則之一是?
A
資料最大化使用原則。
B
資料最小化 (Data Minimization) 原則與目的限制 (Purpose Limitation) 原則
C
資料永久保存原則。
D
資料完全公開原則。
答案解析
資料最小化 (Data Minimization) 指的是僅收集和處理與特定目的直接相關且必要的個人資料目的限制 (Purpose Limitation) 指的是收集資料時應有明確、合法目的,且後續處理不得超出該目的範圍。這兩項是國際上普遍認可的個人資料保護重要原則,也是 AI 治理中處理個資時需嚴格遵守的要求,旨在最大限度地減少對個人隱私的侵害。參考《金融業運用人工智慧(AI)指引》第三章。
#10
★★★★
歐盟制定的《人工智慧法案 (AI Act)》草案,其主要的治理方法 (Governance Approach) 是基於什麼?
A
技術中立原則,不對特定技術進行規範。
B
完全禁止所有高風險 AI 應用。
C
基於風險 (Risk) 的分級管理方法,對不同風險級別的 AI 系統施加不同的義務。
D
僅依賴行業自律,政府不介入。
答案解析
歐盟《人工智慧法案 (AI Act)》的核心是採用基於風險的分級方法。它將 AI 系統根據其可能帶來的風險程度分為不可接受風險(禁止)、高風險、有限風險和低風險/極小風險四個等級,並對不同等級的系統施加不同程度的法律要求和監管義務。風險越高的系統,需要滿足的合規要求越嚴格。參考《金融業運用人工智慧(AI)之核心原則與相關推動政策》附錄介紹。
#11
★★★★
"負責任 AI (Responsible AI)" 的核心理念是?
A
追求最快、最強大的 AI 模型。
B
AI 的所有決策權完全交給機器。
C
在設計、開發和部署 AI 時,積極考慮並納入倫理、公平、透明、問責等原則,以確保其對社會產生正面影響。
D
僅關注 AI 系統的技術性能和準確率。
答案解析
負責任 AI (Responsible AI) 強調AI 的整個生命週期中融入道德和社會考量。它不僅關注技術的實現,更關注技術的影響,旨在開發出值得信賴、符合人類價值觀並能帶來益處的 AI 系統。這需要跨領域的合作,將倫理原則轉化為具體的實踐。
#12
★★★
AI 治理中,進行風險評估 (Risk Assessment) 的主要目的是什麼?
A
評估 AI 專案的預算是否充足。
B
識別、分析和評估 AI 系統可能帶來的潛在危害或負面影響
C
決定 AI 模型的最終準確率指標。
D
選擇最適合 AI 專案的程式語言。
答案解析
風險評估 (Risk Assessment)AI 治理和開發過程中的關鍵步驟。其目的在於系統性地找出 AI 系統在其生命週期中可能引發的各種風險,例如技術風險(模型失效)、倫理風險(偏見、歧視)、安全風險(數據洩露)、社會風險(失業)等,並評估這些風險的可能性和影響程度,以便採取相應的緩解措施 (Mitigation Measures)。參考《金融業運用人工智慧(AI)指引》總則。
#13
★★★★
為確保 AI 系統符合個人資料保護法 (Personal Data Protection Act) 的要求,下列哪項措施不是必要的?
A
告知當事人資料收集的目的與範圍。
B
取得當事人的同意(除非有法律豁免)。
C
採取適當的安全措施保護資料。
D
將所有收集到的個人資料進行公開發布
答案解析
個人資料保護法 (Personal Data Protection Act) 的核心在於保護個人隱私權。其基本原則包括告知同意 (Informed Consent)目的限制 (Purpose Limitation)資料最小化 (Data Minimization)安全維護 (Security Safeguards)、當事人權利(查詢、更正、刪除等)。公開發布個人資料顯然違反了隱私保護的原則,除非有特定的法律依據或取得當事人明確同意。
#14
★★★★
如果一個 AI 演算法在預測男性貸款申請者的通過率顯著高於女性,即使其他條件相似,這可能涉及哪種倫理問題?
A
演算法偏見 (Algorithmic Bias)不公平 (Unfairness)
B
缺乏透明度 (Lack of Transparency)
C
系統不穩健 (Lack of Robustness)
D
侵犯隱私 (Privacy Violation)
答案解析
演算法偏見 (Algorithmic Bias) 指的是 AI 系統因為訓練數據、演算法設計或應用方式等原因,對特定群體產生系統性的、不公平的差別待遇。在此案例中,基於性別產生不同的預測結果,可能源於訓練資料中存在的歷史偏見,或演算法未能適當處理性別變數,導致了不公平的結果。參考《金融業運用人工智慧(AI)指引》第二章。
#15
★★★
台灣的《人工智慧科研發展指引》強調的核心價值不包含下列何者?
A
以人為本
B
永續發展
C
多元包容
D
利潤最大化
答案解析
根據《金融業運用人工智慧(AI)之核心原則與相關推動政策》附錄介紹,我國科技部(現國科會)於 2019 年訂定的《人工智慧科研發展指引》,揭示的三大核心價值是「以人為本」、「永續發展」及「多元包容」,並基於此提出八項指導原則。利潤最大化並非該指引強調的核心倫理或社會價值。
#16
★★★
根據《金融業運用人工智慧(AI)指引》,指定高階主管或委員會負責 AI 相關監督管理,屬於哪個治理層面的實踐?
A
建立治理及問責機制
B
重視公平性
C
保護隱私權益
D
落實透明性
答案解析
《金融業運用人工智慧(AI)指引》第一章核心原則(一)與第三節「組織架構及問責機制」中明確提到,應指定高階主管負責 AI 相關監督管理並建立內部治理架構,例如指定足以督導跨部門業務之高階主管或委員會負責整體監督管理。這是建立清晰治理結構和落實問責的具體措施。
#17
★★★★
《公部門人工智慧應用參考手冊》4.1節中提到,AI 風險管理應涵蓋 AI 生命週期的哪些階段?
A
僅限於模型開發階段。
B
僅限於模型部署後的監控階段。
C
從專案規劃、開發、部署到維運的整個生命週期
D
主要關注資料收集階段。
答案解析
AI 治理與風險管理應貫穿 AI 系統的整個生命週期,從最初的概念發想、資料準備、模型開發、測試驗證、部署應用,到後續的監控、維護和退役。在每個階段都可能出現不同的風險,需要採取相應的管理措施。手冊中提到建置前、建置中、建置後皆有對應風險議題。
#18
★★★★
為何透明度 (Transparency)AI 治理中如此重要?
A
可以讓 AI 模型運行得更快。
B
能自動消除所有的演算法偏見。
C
有助於建立使用者信任、促進問責和發現潛在問題
D
可以降低開發 AI 系統的成本。
答案解析
透明度 (Transparency),包括系統如何運作、使用了哪些數據、決策的邏輯等資訊的可取得性,是建立使用者和社會對 AI 系統信任的基礎。它使得監督 (Oversight)問責 (Accountability) 成為可能,也有助於開發者和使用者識別和修正潛在的錯誤、偏見或安全漏洞。缺乏透明度(所謂的黑箱 (Black Box) 問題)是 AI 治理的一大挑戰。
#19
★★★★
下列何者最能體現「以人為本 (Human-centric)」的 AI 設計原則?
A
追求最高的演算法效率。
B
使用最複雜的 AI 模型。
C
將人類的福祉、權利和價值觀置於 AI 系統設計和應用的核心
D
最小化開發過程中的人力投入。
答案解析
以人為本 (Human-centric)」是負責任 AI (Responsible AI) 和許多 AI 倫理指南的核心原則。它強調 AI 技術的發展和應用應以服務人類、增進人類福祉、尊重人權和基本自由為最終目的,而不是技術本身或單純的效率。這意味著在 AI 設計中需要考慮人的需求、感受、價值觀和潛在影響。參考《金融業運用人工智慧(AI)指引》第二章。
#20
★★★
AI 治理面臨的主要挑戰不包括下列哪個?
A
如何界定和落實問責性 (Accountability)
B
如何解決演算法偏見 (Algorithmic Bias) 問題。
C
如何平衡創新 (Innovation)監管 (Regulation)
D
如何降低電腦硬體的價格
答案解析
AI 治理涉及複雜的倫理、法律、社會和技術問題。挑戰包括如何確保公平性 (Fairness)問責性 (Accountability)透明度 (Transparency),如何管理風險 (Risk),如何處理數據隱私 (Data Privacy),以及如何制定既能促進創新又能有效監管的法規 (Regulations)。硬體價格雖然影響 AI 的普及,但不屬於 AI 治理本身的核心挑戰
#21
★★★
根據《公部門人工智慧應用參考手冊》4.5節,建立AI 應用清單 (AI Application Inventory) 的主要目的是?
A
計算開發 AI 的總成本。
B
評估 AI 模型的技術複雜度。
C
提供管理單位一個全面視角,了解組織內已部署的 AI 系統
D
決定是否需要採購新的 AI 軟體。
答案解析
建立AI 應用清單 (AI Application Inventory)AI 治理的基礎工作之一。它有助於組織全面掌握內部正在使用或開發的 AI 系統,了解它們的用途、範圍、所用數據、風險級別等信息,為後續的監控、風險管理和合規審查提供依據
#22
★★★★
"去識別化 (De-identification)" 技術在 AI 應用中的主要目的是?
A
提高 AI 模型的預測準確率。
B
增加訓練數據的多樣性。
C
移除或遮蔽個人可識別資訊,以保護個人隱私
D
簡化資料庫的結構。
答案解析
去識別化 (De-identification) 是一種隱私保護技術 (Privacy-Enhancing Technology, PET),其目的是處理個人資料,使其無法直接或間接識別到特定個人。在 AI 應用中,對訓練或分析數據進行去識別化,可以在利用數據價值的同時,降低侵犯個人隱私的風險,並有助於符合個資保護法規的要求。
#23
★★★
確保 AI 系統的決策過程可以被追溯和審計,這與哪個治理原則最相關?
A
公平性 (Fairness)
B
隱私保護 (Privacy Protection)
C
問責性 (Accountability)透明度 (Transparency)
D
穩健性 (Robustness)
答案解析
決策過程的可追溯 (Traceability) 和可審計性 (Auditability) 是實現問責性 (Accountability) 的重要基礎,因為它使得在發生問題時能夠釐清原因和責任。同時,這也與透明度 (Transparency) 密切相關,因為可追溯和可審計意味著系統的內部運作在一定程度上是可見和可檢查的。
#24
★★★
金融機構在使用第三方提供的 AI 服務時,根據《金融業運用人工智慧(AI)指引》,應進行哪項治理活動?
A
無需進行任何審查,完全信任第三方。
B
進行適當的盡職調查 (Due Diligence)風險評估 (Risk Assessment),並建立監督管理機制。
C
要求第三方公開所有客戶的資料。
D
僅需確認第三方服務的價格最低。
答案解析
《金融業運用人工智慧(AI)指引》總則第五點「第三方業者之監督管理」及第四章原則四(二) 強調,若金融機構使用第三方開發或營運的 AI 系統,應對第三方業者進行適當的風險管理及監督。這包括事前評估第三方的專業能力、經驗、風險(如集中度風險),簽訂明確契約,並在合作過程中持續監督其是否符合相關規範(如資料保護、安全標準)。
#25
★★★★
AI 治理中,處理演算法偏見 (Algorithmic Bias) 的方法不包括
A
使用更多元、更具代表性的訓練數據。
B
調整演算法或模型參數以提高公平性指標。
C
在模型輸出後進行人工審核和修正。
D
完全忽略數據中的敏感屬性(如性別、種族)
答案解析
處理演算法偏見需要多方面的方法,包括改善數據品質、調整演算法、以及增加人工監督。僅僅忽略敏感屬性可能無法解決問題,因為其他看似中性的特徵可能與敏感屬性高度相關(代理變數),導致偏見仍然存在。有時甚至需要「注意」這些敏感屬性,才能評估和校正模型對不同群體的公平性(公平性感知學習, Fairness-aware ML)。
#26
★★★
AI 治理涉及 AI 生命週期的哪個階段?
A
僅設計與開發階段
B
僅部署與監控階段
C
僅資料收集與準備階段
D
從規劃、設計、開發、部署到維運、退役的整個生命週期
答案解析
AI 治理是一個貫穿始終的概念,需要在 AI 系統的每一個階段都納入考量。從最初的需求定義、風險評估,到資料處理、模型訓練、部署應用,再到後續的性能監控、更新維護,甚至最終的系統退役,都需要有相應的治理措施來確保其負責任地運作。參考《金融業運用人工智慧(AI)指引》及《公部門人工智慧應用參考手冊》的流程觀。
#27
★★★★
"人類可控原則"(Human Controllability Principle) 在 AI 治理中的意涵是?
A
AI 必須能夠控制人類的行為。
B
人類應始終能夠理解、監督並在必要時干預或關閉 AI 系統
C
只有人類才能開發 AI 系統。
D
AI 系統應被設計成完全自主,無需人類干預。
答案解析
「人類可控原則」強調人類對於 AI 系統應保有最終的控制權。這意味著 AI 系統的設計應確保人類能夠理解其運作方式(透明度)、監控其行為,並在需要時能夠介入、修正甚至停止其運行,以防止不可預期或有害的後果。這是確保 AI 安全和問責的重要保障。參考《金融業運用人工智慧(AI)指引》第二章。
#28
★★★
下列何者是資料治理 (Data Governance) 的常見框架或標準?
A
Agile 開發方法
B
ISO 9001 品質管理系統
C
DAMA-DMBOK (Data Management Body of Knowledge)
D
TCP/IP 網路協定
答案解析
DAMA-DMBOK 是由國際數據管理協會 (DAMA International) 發布的數據管理知識體系指南,被廣泛認為是資料治理 (Data Governance)數據管理 (Data Management) 領域的權威參考框架。它定義了數據管理的知識領域、流程、角色和最佳實踐。
#29
★★★
《公部門人工智慧應用參考手冊》中提到的《行政院及所屬機關(構)使用生成式 AI 參考指引》主要目的是?
A
強制所有公務員必須使用生成式 AI
B
提供公務員在使用生成式 AI 時的原則與注意事項,以確保安全與合規。
C
評比不同生成式 AI 工具的優劣。
D
限制生成式 AI 在學術研究上的應用。
答案解析
該指引旨在引導公務員在執行業務時,如何負責任地使用生成式 AI。它並非強制使用,而是提醒相關風險(如機密外洩、資訊偏誤),並提供使用上的基本原則、注意事項及應負責任,例如不得完全取代人工判斷、需註明內容由 AI 生成、禁止用於製作機密文件等。參考《公部門人工智慧應用參考手冊》1.6 節及相關檢核表。
#30
★★★★
AI 治理框架中,通常會包含哪些主要組成部分?
A
僅有技術標準和演算法規範。
B
僅有法律法規和合規要求。
C
原則與價值觀、政策與流程、組織結構與角色、工具與技術等多個層面。
D
僅有對 AI 開發人員的培訓計畫。
答案解析
一個有效的 AI 治理框架通常是多面向的,它需要定義指導性的原則和價值觀(如公平、透明),制定具體的政策和標準作業流程(如風險評估流程、數據使用政策),明確組織內的權責分工(如設立治理委員會、指定負責人),並可能藉助特定的工具和技術來輔助治理的實施(如模型監控工具、偏見檢測工具)。