iPAS AI應用規劃師 考試重點
L12303 生成式AI風險管理
篩選主題:
全部主題
生成式AI風險基本概念與識別
資料相關風險(隱私、安全、偏見)
模型與輸出風險(幻覺、公平性、智財權)
安全與濫用風險(提示注入、惡意使用)
風險管理與緩解措施
治理、倫理與合規
重要性:
全部重要性
★★★★★
★★★★
★★★
★★
★
搜尋:
搜尋
主題分類
1
生成式AI風險基本概念與識別
2
資料相關風險(隱私、安全、偏見)
3
模型與輸出風險(幻覺、公平性、智財權)
4
安全與濫用風險(提示注入、惡意使用)
5
風險管理與緩解措施
6
治理、倫理與合規
#1
★★★★★
生成式AI風險
的定義與範疇
核心概念
生成式AI風險
指的是
在使用
GenAI
(
Generative Artificial Intelligence
) 技術時可能產生的各種潛在負面影響與挑戰
。這些風險涵蓋
技術、倫理、法律、社會、營運等多個層面
。理解這些風險是有效管理和安全應用
GenAI
的前提。
金融業指引
與
公部門手冊
均強調了風險辨識的重要性。
#2
★★★★★
資料隱私
風險 (
Data Privacy Risk
)
核心概念
GenAI
模型通常需要
大量數據進行訓練
,如果訓練數據中包含
個人可識別資訊
(
PII
-
Personally Identifiable Information
) 或
敏感個人資料
,模型
可能會記住這些資訊
,並在生成的內容中
無意間洩露
。此外,使用者與
GenAI
互動時輸入的
提示
(
Prompt
) 也可能包含敏感資訊,若未妥善管理,可能導致
隱私外洩
。(
金融業指引 L11203, 公部門手冊 4.3
)
#3
★★★★★
模型幻覺
風險 (
Hallucination Risk
)
核心概念
幻覺
(
Hallucination
) 指的是
GenAI
模型
產生看似真實但實際上不正確或無意義的資訊
。這可能是因為訓練資料不足、模型內部錯誤或對
提示
的誤解。在需要高準確性的應用場景(如金融建議、醫療諮詢)中,
幻覺可能導致嚴重的負面後果
。(
公部門手冊 1.2, 4.2
)
#4
★★★★
訓練資料偏見
風險 (
Training Data Bias Risk
)
核心概念
如果用於訓練
GenAI
模型的
資料存在系統性偏見
(例如,數據代表性不足、反映社會刻板印象),模型可能會
學習並放大這些偏見
,導致其生成的內容帶有歧視性或不公平。這違反了
公平性
(
Fairness
) 原則。(
金融業指引 L11102, 公部門手冊 4.2
)
#5
★★★★
輸出內容的公平性
風險 (
Output Fairness Risk
)
核心概念
即使訓練資料沒有明顯偏見,
GenAI
模型
本身也可能因為演算法設計或目標函數的原因,產生對特定群體不公平的輸出
。例如,在資源分配或資格審核的應用中,模型可能對某些群體系統性地不利。需要進行
公平性評估與稽核
。(
金融業指引 原則二, 公部門手冊 4.2
)
#6
★★★★
資料安全
風險 (
Data Security Risk
)
核心概念
儲存和處理
GenAI
訓練數據及模型本身的
基礎設施需要強大的安全防護措施
,以防止未經授權的訪問、數據竊取或篡改。若
模型或數據被惡意攻擊者獲取,可能被用於惡意目的
,或導致敏感資訊洩漏。(
金融業指引 原則四, 公部門手冊 4.3, 4.4
)
#7
★★★★
提示注入
風險 (
Prompt Injection Risk
)
核心概念
攻擊者可以
設計惡意的
提示
(
Prompt
),
誘導
GenAI
模型繞過其安全限制或預設行為
,執行非預期的操作,例如洩露敏感資訊、產生有害內容或被用於惡意程式碼生成。(
公部門手冊 4.4
)
#8
★★★
智慧財產權
與
版權
風險 (
Intellectual Property & Copyright Risk
)
核心概念
GenAI
生成的內容(如文章、圖像、程式碼)
可能與現有的受版權保護的作品相似或直接複製其片段
,引發侵權爭議。同時,
由
AI
生成的內容的版權歸屬也是一個複雜的法律問題
。
#9
★★★
惡意使用
風險 (
Malicious Use Risk
)
核心概念
GenAI
可能被用於製造虛假資訊
(
Disinformation
)、
深度偽造
(
Deepfakes
)、進行詐騙、自動化網路攻擊或其他非法活動,對個人、組織或社會造成危害。(
金融業指引 前言, 公部門手冊 1.2
)
#10
★★★★
風險緩解
的基本策略
核心概念
管理
GenAI
風險需要
多層次的策略
,包括:
高品質且經過審核的
訓練資料
模型效能
與
公平性
的持續監控與測試
設計
安全護欄
(
Safety Guardrails
) 和內容過濾機制
強化
提示
(
Prompt
) 設計與輸入驗證
保持
人類監督
(
Human-in-the-loop
) 機制
建立清晰的
治理框架
與
問責機制
(
金融業指引 各章節措施, 公部門手冊 各章節措施
)
#11
★★★★★
AI治理
(
AI Governance
) 的重要性
核心概念
AI治理
是
一套指導
AI
開發和部署的原則、政策、標準和流程
,旨在確保
AI
系統的
負責任、合乎道德和符合法規
的運作。對於
GenAI
,治理框架需要特別關注其獨特的風險,如內容生成、偏見和幻覺。(
金融業指引 第一章, 公部門手冊 4.5
)
#12
★★★★
負責任AI
(
Responsible AI
) 原則
核心概念
負責任AI
強調在設計、開發和部署
AI
系統時,應
考慮其對個人和社會的潛在影響
。核心原則通常包括
公平性、透明度、可解釋性、可靠性、安全性、隱私保護和問責制
。這些原則是
GenAI
風險管理的基礎。(
金融業指引 核心原則, 公部門手冊 4.2, 4.5
)
#13
★★★
人類監督
(
Human Oversight / Human-in-the-loop
) 機制
核心概念
在
GenAI
應用中,
保留人類的審查、干預和最終決策權至關重要
。特別是在高風險應用中,不應完全依賴
AI
的輸出。人類監督可以
發現和糾正模型的錯誤、偏見或不當內容
,降低潛在風險。(
金融業指引 P10, P12, 公部門手冊 4.2
)
#14
★★★
透明度
(
Transparency
) 與
可解釋性
(
Explainability
)
核心概念
透明度
指
了解
AI
系統如何運作的能力
,而
可解釋性
指
能夠解釋
AI
為何做出特定決策或生成特定內容的能力
。對於
GenAI
,由於其複雜性(尤其是大型模型),完全的透明度和可解釋性具有挑戰性,但仍需
追求在適當程度上讓使用者和監管者理解其行為
,以建立信任和進行問責。(
金融業指引 第五章, 公部門手冊 4.2
)
#15
★★★★
管理
第三方
GenAI
服務的風險
核心概念
當組織使用
第三方提供的
GenAI
平台或服務
時(例如
API
),需要
仔細評估服務提供商的安全措施、隱私政策、數據使用條款以及模型的限制
。組織仍需對通過第三方服務處理的數據和產生的結果承擔最終責任。需要建立
供應商風險管理流程
。(
金融業指引 P5, P7, P12, 公部門手冊 3.1
)
#16
★★★
資料最小化原則
(
Data Minimization Principle
)
核心概念
在收集和使用資料進行
GenAI
訓練或應用時,應
僅處理為達成特定目的所必需的最少量資料
。這有助於
降低隱私風險和數據洩露時的影響
。特別是
避免收集不必要的敏感個人資訊
。(
金融業指引 P13, 公部門手冊 4.3
)
#17
★★★
內容過濾
與
安全護欄
(
Content Filtering & Safety Guardrails
)
核心概念
為防止
GenAI
產生有害、不當或非法內容,需要實施
輸入
提示
過濾
和
輸出內容審核
機制。這些
安全護欄
有助於
確保模型的使用符合道德和法律規範
。
#18
★★★★
法規遵循
(
Regulatory Compliance
) 風險
核心概念
GenAI
的應用
必須遵守現有的法律法規
,例如
個人資料保護法
、
著作權法
、
資通安全管理法
等。隨著
AI
技術發展,未來可能會有更專門的
AI
法規出現,組織需要
持續關注並確保其應用符合最新的法律要求
。(
金融業指引 P17, 公部門手冊 1.6, 4.5
)
#19
★★
模型版本控制
與
紀錄保存
核心概念
對於
GenAI
模型的
不同版本、訓練數據、測試結果和部署紀錄
應進行妥善管理和保存。這有助於
追溯問題來源、重現結果以及滿足稽核和合規要求
。(
金融業指引 P7-8, 公部門手冊 4.5
)
#20
★★★
倫理考量
與
社會影響評估
核心概念
在部署
GenAI
之前,應
評估其可能帶來的倫理問題和社會影響
,例如對就業市場的衝擊、加劇數位落差、影響公共輿論等。需要
考慮如何設計和使用
AI
以促進公共利益
,並減輕潛在的負面效應。(
公部門手冊 4.2
)
#21
★★★
風險評估框架
的應用
核心概念
組織應
建立系統性的風險評估框架
來識別、分析和評估
GenAI
應用的潛在風險。可以參考國際標準或指引(如
NIST AI RMF
)來
定義風險等級和對應的管理措施
。(
金融業指引 P4, P6
)
#22
★★★
應急計畫
與
事故應對
核心概念
針對
GenAI
系統可能出現的
故障、錯誤輸出或安全事件
,應制定
應急響應計畫
。包括如何
快速檢測問題、限制損害、恢復服務以及向相關方通報
。
#23
★★★★
問責機制
(
Accountability
)
核心概念
需要
明確界定
GenAI
系統開發、部署和使用過程中各方的責任
。當系統產生問題或造成損害時,
能夠追溯責任歸屬
。這包括開發者、部署者、使用者以及管理者的責任。(
金融業指引 第一章, 公部門手冊 4.2
)
#24
★★★
去識別化
(
De-identification
) 與
匿名化
(
Anonymization
)
核心概念
在處理涉及個人資料的
GenAI
應用時,
應盡可能採用
去識別化
或
匿名化
技術
,移除或模糊化可直接或間接識別個人的資訊,以
保護個人隱私
,同時允許數據用於模型訓練或分析。(
金融業指引 P6
)
#25
★★
模型穩健性
(
Robustness
) 測試
核心概念
評估
GenAI
模型
在面對非預期輸入、雜訊數據或對抗性攻擊時的表現穩定性
。穩健的模型
不易被輕易干擾或產生錯誤結果
,是確保系統可靠運行的關鍵。(
金融業指引 第四章
)
#26
★★★
對抗性攻擊
(
Adversarial Attack
) 風險
核心概念
攻擊者可能
故意製造微小的、人眼難以察覺的擾動添加到輸入數據中
,導致
GenAI
模型做出錯誤的判斷或生成不當的內容。需要
採取防禦措施來提高模型對抗性攻擊的抵抗能力
。(
金融業指引 P16
)
沒有找到符合條件的重點。
↑