科目一: 人工智慧基礎概論
關於AI,下列敘述何者正確?
選項 (A) 不正確,AI 不僅能處理結構化數據(如資料庫中的表格),也擅長處理非結構化數據,如圖像、語音、文字等。
選項 (B) 正確,AI 是一個廣泛的領域,涵蓋機器學習、深度學習、自然語言處理、電腦視覺等多種技術,並被應用於醫療、金融、製造、交通等多種專業領域。
選項 (C) 不正確,AI 系統已廣泛應用於商業、政府部門和日常生活中,遠不止學術研究。
選項 (D) 不正確,AI 在金融領域有諸多應用,例如信用評估、詐欺偵測、高頻交易、智能客服等。
下列何者最適合訓練電腦下圍棋、自動駕駛等動態重複地互動的問題?
A
監督式學習 (Supervised Learning)
B
非監督式學習 (Unsupervised Learning)
C
半監督式學習 (Semi-supervised Learning )
D
強化學習 (Reinforcement Learning)
強化學習 (Reinforcement Learning) 是一種讓代理人 (Agent) 在特定環境 (Environment) 中透過試錯學習最佳行為策略的方法。代理人執行動作 (Action) 後,環境會根據動作結果給予獎勵 (Reward) 或懲罰 (Penalty)。下圍棋和自動駕駛都是典型的強化學習應用場景,系統(代理人)在遊戲或交通環境中執行一系列動作,並根據結果(贏棋/輸棋、安全行駛/發生事故)獲得獎勵或懲罰,從而學習如何在未來做出更好的決策。
深度學習模型中,下列哪一項通常用來降低過擬合(Overfitting )問題?
過擬合 (Overfitting) 是指模型在訓練數據上表現很好,但在未見過的測試數據上表現差。
選項 (A) 增加訓練數據量確實有助於緩解過擬合,但題目問的是「通常用來降低」的方法,而正則化是一個更直接的模型層面的控制手段。
選項 (B) 增加模型的複雜度(例如增加層數或神經元)反而會增加過擬合的風險。
選項 (C) 增加學習率主要影響模型的訓練速度和收斂性,與過擬合的直接關聯較小,有時過高的學習率甚至可能導致訓練不穩定。
選項 (D) 正則化 (Regularization) 是一種常用的防止過擬合技術,例如 L1/L2 正則化、Dropout 等,它們通過限制模型的複雜度或權重的大小來提高模型的泛化能力。
在AI 治理中,下列何者是國際合作的重要性?
AI 治理涉及跨國界、跨文化的議題,國際合作對於應對 AI 帶來的全球性挑戰至關重要。
選項 (A) 國際合作有助於建立共通的 AI 技術標準、安全標準、倫理準則等。
選項 (B) 國際合作是應對 AI 技術濫用(如用於監控、武器、假訊息等)的關鍵,需要各國協調一致的政策和法規。
選項 (C) 國際合作可以促進 AI 技術、知識和最佳實踐的交流與轉移,幫助全球共同發展和應用 AI。
因此,以上所有方面都是 AI 治理中國際合作的重要目標。
若要設計一個能夠辨識並過濾垃圾郵件的系統,應該選擇下列哪一種機器學習演算法以實現最佳效果?
A
監督式學習 (Supervised Learning)
B
非監督式學習 (Unsupervised Learning)
C
半監督式學習 (Semi-supervised Learning)
D
強化學習 (Reinforcement Learning )
辨識垃圾郵件是一個典型的分類 (Classification) 問題。在訓練過程中,我們可以輕易獲得大量已標記的郵件數據,即知道哪些是「垃圾郵件」(Spam),哪些是「非垃圾郵件」(Ham)。這種使用帶有正確標籤(垃圾/非垃圾)的數據來訓練模型,讓模型學會區分不同類別的方法,正符合監督式學習 (Supervised Learning) 的定義。非監督式學習用於尋找數據內在結構(如分群),強化學習用於透過試錯學習策略,半監督學習用於標籤數據不足的情況,這些都不如監督式學習直接適用於這個明確的分類任務。
假設某國正在考慮使用 AI 技術來進行社會信用評分,並根據年齡、缺陷、種族等特徵來評定個人的信用;同時,該國計劃在公眾場所使用遠程生物辨識系統進行執法,目的在於提高社會秩序和安全。上述 AI 應用可能會引發對隱私和個人權利的重大關注,根據歐盟《人工智慧法》(Artificial Intelligence Act, AIA) 的風險分級,這類應用屬於哪一風險等級?
A
不可接受風險 (Unacceptable Risk)
D
小或低風險 (Minimal or Low Risk)
歐盟《人工智慧法》(AIA) 將 AI 系統分為四個風險等級:不可接受風險、高風險、有限風險和小/低風險。
其中,不可接受風險 (Unacceptable Risk) 的系統被視為對人類安全、生計和權利構成明顯威脅,因此應予禁止。這包括用於社會信用評分、利用個人弱勢(如年齡、身體或心理缺陷)進行行為操縱、或在公共場所進行實時遠程生物辨識(執法目的下的特定情況除外,但題目描述的廣泛用途聽起來風險極高)。根據題目描述,基於種族、缺陷等特徵的社會信用評分屬於歧視性且侵犯基本權利的行為,而廣泛的遠程生物辨識也極具爭議,這些都高度符合不可接受風險的特徵。雖然有些生物辨識系統被歸為高風險,但題目中結合社會信用評分及公眾場所遠程辨識的描述,指向了最嚴格的風險等級。
下列何者非大數據時代資料的特性?
大數據通常具有 3V 或更多 V 的特性:
資料量大 (Volume):數據體積龐大。
資料變動速度快 (Velocity):數據產生和流動的速度很快。
資料多樣性 (Variety):數據類型多樣,包括結構化、半結構化和非結構化數據。
資料真實性 (Veracity) 也是常見的第四個 V,指數據的準確性和可信度。
然而,「資料存儲位置固定」並非大數據的特性。大數據的存儲常常是分散式的,分佈在多個伺服器或雲端,以應對其龐大的體積和高吞取速度要求。
關於K平均法( K-means ),下列敘述何者「不」正確?
C
容易受雜訊與離群值(Outlier)影響其群集中心
K平均法 (K-means) 是一種非監督式學習的分群 (Clustering) 演算法。
選項 (A) 正確,K-means 的目標是將數據點劃分為 k 個不重疊的群集,每個數據點屬於離它最近的群集中心。
選項 (B) 正確,K-means 演算法對初始選擇的群集中心敏感,不同的初始中心可能導致不同的最終分群結果。
選項 (C) 正確,K-means 計算群集中心是透過計算群集內數據點的平均值,因此容易受到異常值 (Outlier) 的顯著影響,使得群集中心偏移。
選項 (D) 不正確,K-means 的核心是計算數據點與群集中心之間的距離(通常是歐式距離),並計算群集內數據點的平均值作為新的群集中心。這些操作都基於數值型資料。雖然可以透過一些編碼方法(如獨熱編碼)處理類別型資料,但 K-means 本身並不直接適合處理純類別型資料,效果通常不佳,需要搭配其他技術或選擇更適合的演算法(如 K-modes)。
下列哪一種資料類型不屬於非結構化資料?
非結構化資料 (Unstructured Data) 是指沒有預定義的結構或模型的資料,例如文字文件、圖像、音訊、視訊等。
選項 (A) X 光醫學影像屬於圖像,是非結構化資料。
選項 (B) 監控錄影畫面屬於視訊,是非結構化資料。
選項 (C) 客服電話錄音屬於音訊,是非結構化資料。
選項 (D) 關係型資料庫記錄 (Relational Database Records) 通常以表格形式存儲,具有明確定義的行和列,遵循固定的結構 (Schema),因此屬於結構化資料 (Structured Data)。
下列資料型態,何者最常用來儲存員工年齡、員工年資、貨品銷售量等資料?
員工年齡、員工年資和貨品銷售量都是表示數量或數值大小的資料。
選項 (A) 文字型用於儲存文本字符串。
選項 (B) 數值型用於儲存整數或小數等數值。這是最適合表示數量、測量值或計算結果的資料類型。
選項 (C) 日期型用於儲存特定的日期或時間點。
選項 (D) 布林型用於儲存只有兩個可能值(真/假、是/否)的資料。
因此,表示年齡、年資和銷售量應選擇數值型。
在品質管理中,若一產品的生產過程中標準差顯著偏大,通常意味著什麼?
標準差 (Standard Deviation) 是衡量數據離散程度或波動性的統計量。
標準差越大,表示數據點(例如產品的某項測量值)越分散,離其平均值越遠。在品質管理中,這通常意味著生產過程不穩定,產品在同一規格上的差異較大,導致產品品質的一致性或穩定性較差。
選項 (A) 標準差小才表示資料點集中,品質穩定。
選項 (B) 正確,標準差大表示生產過程波動大,產品品質不穩定。
選項 (C) 標準差是反映資料波動性的重要指標。
選項 (D) 中位數高與標準差無直接關係,且標準差大通常與品質不穩定相關,不一定代表品質良率高。
在檢視資料品質時,可參考資料的變異程度及資料的集中趨勢。下列何者不屬於資料集中趨勢衡量的方法?
資料的集中趨勢 (Measures of Central Tendency) 用於描述數據集的中心位置,常見的包括:
平均數 (Mean):所有數據點加總後除以數據點的數量。
中位數 (Median):將數據排序後位於最中間位置的數值。
眾數 (Mode):數據集中出現頻率最高的數值。
標準差 (Standard Deviation) 則是衡量資料變異程度 (Measures of Dispersion/Variability) 的統計量,表示數據點相對於平均值的散佈情況,而不是集中趨勢。
某醫院研究特定心血管疾病的成因,收集了 50 名病患與 150 名正常人的年齡、血壓、血型等三項屬性變數。此研究適合使用下列哪一種機器學習模型來建立?
B
線性迴歸( Linear Regression )
C
基於密度之含噪空間聚類法(Density-Based Spatial Clustering of Application with Noise, DBSCAN )
D
K-means 聚類 ( K-means Clustering )
這個研究的目標是根據一些屬性(年齡、血壓、血型)來區分「病患」和「正常人」。這是一個典型的二元分類 (Binary Classification) 問題,且資料已經有明確的標籤(病患/正常人),因此最適合使用監督式學習演算法。
選項 (A) 決策樹 (Decision Tree) 是一種常用的監督式學習分類演算法。
選項 (B) 線性迴歸用於預測連續數值,不適用於分類。
選項 (C) DBSCAN 和 (D) K-means 都是非監督式學習的分群演算法,用於在未標記資料中尋找分組,不適用於已經有類別標籤的預測任務。
銀行想建立聊天機器人,可透過下列哪一種領域技術來達成?
聊天機器人需要能夠理解使用者的文字或語音輸入(自然語言理解, Natural Language Understanding)並生成恰當的回應(自然語言生成, NLG)。這些能力是自然語言處理 (NLP) 領域的核心。同時,聊天機器人通常需要機器學習模型來學習對話模式、意圖識別、情緒分析等。雖然資料庫、網頁開發、網路安全都是建設聊天機器人系統可能需要的其他技術,但機器學習與自然語言處理 是實現聊天機器人核心智能功能的關鍵技術。
線性迴歸模型最適合解決哪種類型的問題?
線性迴歸 (Linear Regression) 是一種監督式學習方法,用於建立一個輸入變數(或多個)與連續的目標變數之間的線性關係模型。它的主要應用是迴歸 (Regression) 分析,即預測一個數值型的輸出。
選項 (A) 圖像分類是分類問題,通常用分類模型解決。
選項 (B) 銷售額預測是預測一個連續數值(銷售金額),是典型的迴歸問題,適合使用線性迴歸等迴歸模型。
選項 (C) 聚類分析是非監督式學習的分群問題。
選項 (D) 遊戲策略學習是典型的強化學習問題。
請問下列何者不是常見的特徵選取技術或方法?
A
皮爾森積差相關分析(Pearson Correlation )
B
主成分分析(Principal Components Analysis, PCA)
C
迴歸分析(Regression Analysis)
特徵選取 (Feature Selection) 是指從原始特徵集合中選擇一個最有代表性或最相關的子集,以提高模型性能、減少過擬合、降低計算成本等。常見的特徵選取方法包括過濾法 (Filter Methods)、包裝法 (Wrapper Methods) 和嵌入法 (Embedded Methods)。
選項 (A) 皮爾森積差相關分析可以衡量特徵與目標變數之間的線性相關性,常用作過濾法特徵選取的一部分。
選項 (B) 主成分分析 (PCA) 是一種降維技術,它將原始特徵轉換為一組新的、不相關的主成分,雖然不是嚴格意義上的「選取」原始特徵,但常用於減少特徵數量。
選項 (D) 隨機森林是一種集成學習模型,可以計算每個特徵對模型預測的貢獻度(特徵重要性),這是一種嵌入法特徵選取方法。
選項 (C) 迴歸分析 (Regression Analysis) 是一種用於建立模型並預測連續值的統計方法,它本身是模型本身,而不是用於選擇特徵的方法,儘管在進行迴歸分析時可能會應用特徵選取技術。
交叉驗證的主要目的是什麼?
交叉驗證 (Cross-Validation) 是一種用於評估機器學習模型性能的技術,特別是在數據量有限的情況下。它將數據集分割成多個子集,輪流使用不同的子集作為訓練集和驗證集,從而更穩健地評估模型的泛化能力 (Generalization Ability)。
選項 (A) 交叉驗證會重複訓練多次,通常會增加總訓練時間,而不是提高訓練速度。
選項 (B) 驗證數據是否線性可分通常是針對特定模型(如 SVM)的考量,不是交叉驗證的主要目的。
選項 (C) 透過在多個不同的數據子集上評估模型性能,交叉驗證可以更準確地估計模型在未見數據上的表現,從而幫助檢測和減少過擬合的風險。
選項 (D) 交叉驗證可以評估模型在不同數據分割上的性能,這有助於了解其穩健性,但「容錯能力」通常指模型對錯誤輸入的處理能力,與交叉驗證的側重點不同。
神經網路與傳統機器學習模型的主要區別是什麼?
選項 (A) 不正確,神經網路 (Neural Network),特別是具有隱藏層的多層感知器,非常擅長處理非線性關係。
選項 (B) 正確,神經網路,尤其是深度學習 (DL) 模型,具有多個隱藏層(多層結構),能夠自動從原始數據中學習層層抽象的複雜特徵表示(Feature Representation),這與許多需要手動進行特徵工程的傳統機器學習模型不同。
選項 (C) 不正確,神經網路既可以解決迴歸問題(預測連續值),也可以解決分類問題(預測類別)。
選項 (D) 不正確,神經網路,特別是深度學習模型,通常需要大量數據來訓練,才能發揮其潛力並避免過擬合。
下列關於生成對抗網路( GAN )的描述正確的是哪一項?
生成對抗網路 (GAN, Generative Adversarial Network) 是一種用於生成新數據的深度學習模型。它的核心架構包含兩個相互對抗的神經網路:一個生成器 (Generator) 和一個鑑別器 (Discriminator)。生成器試圖創建逼真的數據(如圖像),而鑑別器則試圖區分真實數據和生成器創建的假數據。兩個網路通過競爭不斷進步。
選項 (B) GAN 主要用於生成數據,而不是分類。
選項 (C) 深度學習模型的可解釋性通常較低,GAN 也不例外。
選項 (D) GAN 的目標就是生成與真實數據 indistinguishable 的高品質數據。
因此,選項 (A) 正確描述了 GAN 的基本組成。
在下列哪一種應用領域中,生成式 AI 最有可能被使用來創建新的圖像或影片內容?
生成式 AI (Generative AI) 的核心能力是創造新的、原創的內容。
選項 (A) 產品品質檢測、(B) 醫學影像分析、(C) 監控系統通常屬於鑑別式 AI 的應用,主要用於分類、檢測、識別現有數據。
選項 (D) 虛擬現實圖像 (Virtual Reality Images) 的創建,例如根據描述生成場景、人物或物體,是生成式 AI (如 DALL-E, Midjourney 等) 非常活躍的應用領域,它可以生成全新的視覺內容。
關於目前生成式 AI 的主要應用,不包括下列哪一項?
生成式 AI (Generative AI) 的主要應用是生成新的數據或內容。
選項 (A) 創建合成數據樣本 (Synthetic Data Generation) 是生成式 AI 的重要應用,用於擴充訓練數據集,解決數據隱私問題或數據稀缺問題。
選項 (B) 模擬數據分佈是生成式模型訓練的目標之一,以便能從中採樣生成新數據。
選項 (D) 生成文本(如文章、詩歌、程式碼等)是大型語言模型 (LLM) 的核心功能,而 LLM 是生成式 AI 的一個重要分支。
選項 (C) 分類醫學影像(例如判斷是否有腫瘤)是一個典型的鑑別式 AI (Discriminative AI) 任務,屬於分類問題,不屬於生成式 AI 的主要應用範疇。
下列哪項是生成式 AI 支援鑑別式 AI 的典型案例?
此題考查生成式 AI 如何輔助或服務於鑑別式 AI 的應用情境。
選項 (B) 使用 CNN 進行腫瘤分類、選項 (C) 使用 SVM 分析風險都是典型的鑑別式 AI 應用本身,沒有生成式 AI 的參與。
選項 (D) 創建更好的分類演算法屬於演算法研究,與生成式 AI 支援鑑別式 AI 的應用模式不同。
選項 (A) 自動駕駛模型通常是鑑別式模型(例如識別物體、預測行為),而模擬交通場景(生成逼真的虛擬環境和數據)是生成式 AI 的應用。通過生成大量的模擬數據,可以有效地訓練自動駕駛所需的鑑別式模型,尤其是在真實數據難以獲取或存在安全風險的場景下。這是一個典型的生成式 AI 作為數據增強或模擬環境工具來支援鑑別式 AI 訓練的案例。
關於自然語言處理(NLP)核心技術,下列敘述何者不正確?
A
語音識別技術將語音轉換為文本,並用於語音助理和語音輸入
B
自然語言生成技術可以生成自然流暢的文本,用於聊天機器人和自動文案生成
C
語意分析技術理解文本的語意,並主要用於語音識別和機器翻譯
D
機器翻譯技術自動翻譯文本,促進多語言支援和全球溝通
選項 (A) 正確,語音識別 (Speech Recognition) 是 NLP 的重要組成部分,負責將人類語音轉換為文字,廣泛應用於語音助手 (Voice Assistant) 和語音輸入。
選項 (B) 正確,自然語言生成 (NLG, Natural Language Generation) 是 NLP 的另一個重要組成部分,負責根據數據或內部表示生成人類可讀的自然語言文本,用於聊天機器人回復、自動報告生成等。
選項 (D) 正確,機器翻譯 (Machine Translation) 是一個將一種語言的文本自動翻譯成另一種語言的 NLP 應用,極大地促進了跨語言溝通。
選項 (C) 不正確,語意分析 (Semantic Analysis) 的確是理解文本語意的重要技術,但其主要用途並非「用於語音識別和機器翻譯」。語意分析在自然語言理解 (NLU) 中扮演核心角色,應用於文本分類、情感分析、信息提取、問答系統、聊天機器人對話理解等。雖然語意理解對於提高機器翻譯質量很重要,但說它是語音識別的「主要」用途是不準確的;語音識別主要關注聲學和語言模型將聲音轉換為文字。
關於「負責任的 AI」,下列敘述何者較為正確?
「負責任的 AI (Responsible AI)」 強調在設計、開發、部署和使用 AI 的全生命週期中,確保其安全、公平、透明、可解釋,並符合道德和法律規範。責任歸屬是一個複雜的問題,通常涉及多個利害關係人。
選項 (C) 不正確,目前的 AI 系統不具有法律或道德主體性,無法自行對其行為負責。
選項 (B) 使用者對其如何使用 AI 系統的結果負有部分責任,但不是對系統本身的行為負責。
選項 (D) 政府負責建立監管框架和推動政策,對整個 AI 的發展環境負責,但不是直接對特定 AI 系統的行為負責。
選項 (A) 相較之下,AI 系統的開發者 (Developer) 對其設計、訓練數據、演算法選擇、潛在偏見以及安全措施等負有直接且重大的責任,他們的決策直接影響 AI 系統的行為和潛在後果。因此,開發者是負責任 AI 最核心的責任主體之一。
關於生成式 AI 的基本原理,下列敘述何者較正確?
A
生成式 AI 通過分析大量數據來生成新數據,模擬數據分佈以創造與訓練數據相似的結果
B
生成式 AI 主要通過預定義的規則來進行數據處理和分類
C
生成式 AI 專注於數據分類和迴歸預測,幫助識別已知數據中的模式
D
生成式 AI 通過自動化的方式清洗數據,提升數據分析的準確性
生成式 AI (Generative AI) 的核心原理在於學習訓練數據的潛在分佈 (Data Distribution),然後從這個學習到的分佈中採樣 (Sampling) 或創造出新的、與訓練數據具有相似特徵的數據點或內容。
選項 (A) 正確地描述了這一過程:分析大量數據(學習分佈)-> 生成新數據 -> 模擬訓練數據的特徵。
選項 (B) 描述了傳統的規則式系統或部分早期的 AI 方法,不是生成式 AI 的基本原理。
選項 (C) 描述的是鑑別式 AI 的主要功能(分類和迴歸)。
選項 (D) 描述了數據清洗,這是數據預處理的步驟,不是生成式 AI 的核心原理。
科目二: 生成式 AI 應用與規劃
下列何者最能表達 No Code / Low Code 平台的主要特色?
No Code 和 Low Code 平台 的核心價值在於降低應用程式開發的門檻和速度。
選項 (A) 不正確,No Code 完全不需要撰寫程式碼,Low Code 只需要少量程式碼或腳本,與「大量程式碼」相反。
選項 (B) 正確,這些平台通常提供預設模板、可視化界面和拖放式工具,使得使用者(包括非技術人員或公民開發者)能夠快速組裝和建立應用程式。
選項 (C) 不正確,這些平台的重要目標之一是賦能非專業開發人員(公民開發者),同時也可以提高專業開發人員的效率。
選項 (D) 不正確,NC/LC 平台可以建立各種應用程式,包括數據管理系統、工作流程自動化、行動應用等,不僅限於靜態網站。
關於 No Code AI 工具,下列敘述何者最為準確?
C
是一種降低 AI 技術複雜性和開發成本的新興方法
No Code AI 工具 是指提供無程式碼界面,讓使用者可以透過可視化操作來建構和部署 AI 模型或應用的平台。
選項 (A) 不正確,No Code AI 工具尚未完全取代傳統 AI 開發,特別是對於高度客製化、研究性質或性能極致優化的場景。
選項 (B) 不正確,No Code AI 工具適用於各種規模的企業和個人,特別是資源有限或缺乏專業 AI 人才的組織。
選項 (C) 正確,No Code AI 的核心價值在於將複雜的 AI 開發流程封裝在易於使用的界面下,從而降低技術門檻和開發成本,加速 AI 的普及和應用。
選項 (D) 不正確,市場上有許多不同的 No Code AI 工具,它們針對不同的 AI 任務(如視覺、NLP、預測)和使用者提供不同的功能和性能。
下列哪種情況,選擇 Low Code 平台可能比 No Code 平台更為適合?
No Code 平台 主要針對完全不寫程式碼的公民開發者,適合簡單、標準化的應用需求,追求極致的開發速度和易用性。
Low Code 平台 允許使用者在可視化界面的基礎上加入少量程式碼片段或腳本,以及更靈活的自訂功能和系統整合。
選項 (A) 雖然 Low Code 也能加速開發,但在完全由非技術人員主導且追求極快速開發的情況下,No Code 通常更直接。
選項 (B) 應用需求簡單且無需自訂功能時,No Code 通常是首選,因为它更簡單。
選項 (C) 正確,當應用程式需要處理複雜的業務邏輯、與現有系統進行深度整合,或需要高度客製化的功能時,Low Code 提供的靈活性和擴展性使其比 No Code 更為適合,因為它可以彌補 No Code 在處理複雜性方面的不足。
選項 (D) 雖然 NC/LC 都旨在節省成本和時間,但在預算和時間極度有限且需求非常簡單時,可能連 Low Code 的學習曲線都顯得過高,或者某些現成的 SaaS 服務更適合。總體而言,Low Code 更適合平衡開發速度、成本與一定程度的複雜性需求。
關於生成式 AI 與 No Code / Low Code 平台的應用,下列何者最不適合?
將生成式 AI 的能力與 No Code / Low Code 平台結合,可以快速開發包含生成式功能的應用。
選項 (A) 生成程式碼片段是生成式 AI 的常見應用,可以整合到 Low Code 平台輔助開發。
選項 (B) 生成行銷文案是生成式 AI 在自然語言生成方面的典型應用,可透過 NC/LC 平台快速搭建自動化文案生成工具。
選項 (C) NC/LC 平台本身就適合快速開發個人化或小型 App,結合生成式 AI 可以增加更多功能(如聊天、圖像生成)。
選項 (D) 自動化生成法律判決 (Automated Legal Judgment Generation) 是一個極高風險的應用場景,需要高度的準確性、公平性、可解釋性以及對法律條文和複雜案件細節的深入理解和推理能力。目前的生成式 AI 雖然可以在法律領域提供輔助,但完全自動化生成最終判決存在嚴重風險,且倫理和法律上難以接受。這遠遠超出了現階段 No Code / Low Code 平台應用的安全和能力範圍。
關於 No Code / Low Code 平台,下列敘述何者較正確?
C
Low Code 平台更適合開發靈活且可擴展的解決方案
選項 (A) 不正確,No Code 和 Low Code 是相關但不完全相同的概念,Low Code 提供了比 No Code 更高的靈活性和擴展性。
選項 (B) 不正確,Low Code 平台通常需要使用者具備基礎的程式設計知識,以便能夠編寫少量的程式碼或腳本來實現更複雜的功能或整合。
選項 (C) 正確,由於允許嵌入自訂程式碼和提供更豐富的整合選項,Low Code 平台比 No Code 平台更適合開發需要更強靈活性、更高客製化程度或更好擴展性的應用程式。
選項 (D) 不正確,No Code 平台 雖然易用,但其客製化能力最為有限,主要依賴平台提供的預設組件和邏輯。
使用 Low-Code 平台進行開發時,企業應特別留意下列哪一項潛在風險?
Low-Code (和 No-Code) 平台賦予了業務部門或非專業開發人員快速建立應用程式的能力,這帶來效率提升的同時,也產生了「影子 IT」 (Shadow IT) 的風險。
選項 (D) 正確,由於應用程式可以繞過傳統 IT 部門的審批和管理流程被建立和部署,企業內部可能會出現大量缺乏統一管理、安全審核和維護規劃的應用程式。這會增加安全漏洞、數據孤島、合規性問題以及長期維護困難的風險。
選項 (A) 數據洩露是所有應用開發都面臨的風險,不限於 Low-Code,但影子 IT 的存在會加劇這一風險。
選項 (B) 大規模應用擴展和維護可能是一個挑戰,但 Low-Code 平台本身通常提供一定的擴展能力,這更多是設計和管理問題,而不是 Low-Code 的核心潛在風險。
選項 (C) Low-Code 的主要目標是降低開發成本和時間,因此開發成本大幅增加通常不是 Low-Code 本身帶來的風險。
因此,應用程式的未經管理擴散是 Low-Code / No-Code 平台帶來的最獨特和重要的潛在風險之一。
下列哪一種技術方案適用於改善客戶體驗?
選項 (A) 智慧排程可能優化內部流程,間接影響客戶。
選項 (B) 消費行為洞察模型用於理解客戶,以便更精準地提供產品或服務。
選項 (C) 預測性維護是針對設備的,與客戶體驗無直接關係。
選項 (D) 正確,結合自然語言處理 (NLP) 用於理解客戶的文字或語音,以及生成式回應模組 (Generative Response Module) 用於生成自然流暢的回應(如聊天機器人),是直接改善客戶互動體驗的技術方案。
下列哪一項技術是生成式 AI 的基礎?
選項 (A), (B), (D) 都是鑑別式或聚類等傳統機器學習或鑑別式 AI 的基礎技術。
選項 (C) 生成對抗網路 (GAN) 是由 Ian Goodfellow 等人在 2014 年提出的,是早期且影響深遠的生成式模型架構,開啟了生成式 AI 發展的新篇章,可以說是許多後續生成模型研究的基礎之一。
能使用 DALL·E-2 生成各式逼真的圖片,最關鍵的應用技術為何?
DALL-E 2 是 OpenAI 開發的一個著名的文生圖 (Text-to-Image) 模型。雖然它整合了多種技術(包括自然語言處理來理解文本提示),但其核心的圖像生成部分,實現從噪聲生成逼真圖像的關鍵技術是擴散模型 (Diffusion Model)。擴散模型在近年來在圖像生成品質上取得了顯著超越 GAN 的成就,成為主流。
下列何者不是生成式 AI 核心技術?
C
視覺幾何組 (Visual Geometry Group, VGG )
D
自回歸模型 (Autoregressive Models, AR Model)
生成式 AI 的核心技術包括各種能夠學習數據分佈並生成新數據的模型。
選項 (A) VAE 和 (B) GAN 都是著名的生成式模型架構。
選項 (D) 自回歸模型 也是一種生成模型,特別適用於序列數據的生成(如文本或時間序列)。
選項 (C) 視覺幾何組 (VGG) 是一種著名的卷積神經網路 (CNN) 架構,主要用於圖像分類等鑑別式任務,不屬於生成式 AI 的核心技術。
使用生成式 AI 技術或工具生成內容時,應採取下列哪一項措施以確保內容品質?
確保生成式 AI 生成內容的品質不僅指其流暢度和逼真度,也包括其準確性、原創性和可信度。
選項 (A) 直接用於學術報告存在抄襲、不準確或幻覺風險。
選項 (C) 減少人工審查會增加錯誤和不當內容發布的風險。
選項 (D) 生成數據的意義在於使用,排除所有生成資料沒有意義。
選項 (B) 正確,對於引用了特定資訊或作為創作靈感的生成式 AI 輸出,適當標注其來源(例如「由 AI 工具生成,基於 [來源] 的提示」)有助於增加透明度、提示使用者內容可能需要進一步驗證,並在某些情況下遵守版權或使用政策,這是確保內容負責任和可信使用的重要步驟。
下列哪一項不是生成式 AI 工具在使用體驗方面的優化方向?
生成式 AI 工具的使用體驗優化旨在讓使用者更容易、更有效地使用這些工具來生成內容。
選項 (A) 提供更直觀的操作設計,讓用戶能輕鬆理解和操作。
選項 (B) 支援自然語言指令 (提示) 是許多生成式工具的核心功能,讓使用者用簡單的語言表達需求。
選項 (C) 提供智慧化的參數調整建議,幫助用戶優化生成結果,例如推薦不同的風格、設定或參數。
選項 (D) 限制使用者自訂生成內容與優化使用體驗的目標背道而馳,良好的工具應當提供足夠的靈活性和控制權,讓使用者能夠按照自己的意願引導內容生成。
學校教師如何引導學生正確使用生成式 AI 工具?
在教育環境中引導學生使用生成式 AI,應採取負責和建設性的態度。
選項 (A) 完全禁止可能剝奪學生學習和使用新工具的機會。
選項 (B) 無限制使用可能導致學生過度依賴或濫用(如抄襲)。
選項 (D) 僅鼓勵完成作業可能忽略對工具原理、倫理和限制的理解。
選項 (C) 正確,教師應制定明確的使用規範,解釋 AI 工具的用途、限制、潛在風險(如幻覺、偏見)、以及如何誠實地使用和標注 AI 生成的內容。通過教育,引導學生將 AI 作為學習和創造的輔助工具。
企業若要有效支援生成式 AI 的運行,內部 IT 環境最需要具備下列何種條件?
C
擁有高效能運算資源與彈性儲存空間,以支援 AI 模型訓練與推理
生成式 AI 模型,特別是大型模型,在訓練和推理 (Inference) 時需要龐大的計算能力(通常是 GPU 或 TPU)和大量的數據存儲。因此,具備高效能運算資源和彈性儲存空間的 IT 基礎設施是支援其有效運行的最核心技術條件。其他選項雖然對企業運營重要,但不是直接支援 AI 模型運行的最關鍵 IT 條件。
A企業想要實現客服自動化,希望透過 AI 理解客戶發送的文本訊息,並根據文本內容調用相對應的圖片和影片進行回覆,A 企業應該選擇哪一種模型?
這個場景需要 AI 同時處理文本輸入和圖片/影片輸出。
選項 (A) 強化學習主要用於決策策略學習。
選項 (C) 圖像分類模型用於識別圖像內容。
選項 (D) 單模態大語言模型主要處理和生成文本。
選項 (B) 正確,多模態模型 (Multimodal Model) 能夠理解和處理來自不同模態(如文本、圖像、語音、影片)的資訊,並在這些模態之間進行轉換或生成。例如,根據文本描述生成圖片(文生圖),或理解文本並生成相關的多媒體內容。這個客服需求涉及文本理解和多媒體內容生成,正符合多模態模型的能力。
下列哪一種情境最能展現提示工程(Prompt Engineering)的價值?
A
使用者輸入一個模糊的問題,AI 給出一個非常確定的答案
B
使用者輸入一個非常具體的問題,AI 給出一個相關但不完全符合的答案
C
使用者輸入一個精準有架構的問題,AI 生成符合架構的答案
D
使用者輸入一個簡單的問題,AI 給出一個非常複雜的答案
提示工程 (Prompt Engineering) 的目標就是通過精心設計輸入提示,來引導生成式 AI 模型產生更準確、更相關、更符合預期格式或風格的輸出。
選項 (A), (B), (D) 都描述了模型可能無法準確或符合預期地回應輸入,這恰恰是需要優化提示工程的情況。
選項 (C) 正確,當使用者能夠提供一個清晰、具體、有結構的提示時,模型更有可能生成符合這種結構和要求的精確輸出。這種能力正是提示工程熟練度的體現和其價值的所在。
下列敘述何者最能反映生成式 AI 在圖像生成領域的發展趨勢?
A
生成式 AI 目前僅能生成基於簡單演算法的低解析度圖像,且無法應用於高解析度或細節豐富的圖像創建
B
隨著生成式 AI 技術的進步,圖像不僅風格多樣,且逼真度顯著提升,並可處理更複雜的圖像生成任務
C
生成式 AI 技術目的為加快生成速度,可生成靜態圖像,無法生成動態圖像
D
生成式 AI 在圖像生成方面的發展主要集中於圖像風格轉換,無涉及其他類型的視覺內容生成
生成式 AI,特別是擴散模型 (Diffusion Model),在近年的圖像生成領域取得了驚人的進展。
選項 (A) 不正確,現代生成式 AI 已經能夠生成高解析度、細節豐富且逼真的圖像。
選項 (C) 不正確,雖然速度是優化目標之一,但生成式 AI 也能生成動態圖像(影片),儘管仍具挑戰。
選項 (D) 不正確,生成式 AI 的應用非常廣泛,包括從文本生成圖像、圖像編輯、超解析度 (Super-resolution)、甚至生成三維模型等。
選項 (B) 正確,圖像生成技術的發展確實呈現出生成內容風格更加多樣、逼真度不斷提升,以及能夠處理更複雜的生成任務(例如文生圖、圖生圖、多模態輸入生成)的趨勢。
關於生成式 AI,下列 A~E敘述哪些正確?
A. 生成的內容不會帶有偏見
B. 具有高度準確性,不會有虛假信息
C. 生成內容的準確性,建議需要經過人類審核
D. 每次生成的內容都可能不同
E. 生成式 AI 具有高度安全性,不會導致數據外流
關於生成式 AI 的現狀和特性:
A. 錯誤。生成式 AI 會從訓練數據中學習,如果數據帶有偏見 (Bias),生成的內容很可能也會帶有偏見。
B. 錯誤。生成式 AI 可能會產生幻覺 (Hallucination),即生成看似合理但實際上是虛假或不準確的資訊。不能保證高度準確性或沒有虛假信息。
C. 正確。由於存在幻覺和偏見風險,對於重要的或對外發布的生成內容,強烈建議經過人類的審核和驗證。
D. 正確。即使是相同的提示和模型,由於模型內部的隨機性(如溫度 (Temperature) 參數設置),每次生成的內容可能會有所不同。
E. 錯誤。生成式 AI 的安全性並非絕對高度,存在安全漏洞(如提示注入, Prompt Injection)、數據洩露風險(特別是使用第三方服務或處理敏感輸入時)。
因此,正確的敘述是 C 和 D。
一家跨國企業計劃在財務部門導入生成式 AI,並結合自動化系統進行報告產出。導入此系統後,最有可能實現的效益為何?
在財務部門結合生成式 AI 和自動化系統進行報告產出,其核心應用是自動化生成財務報告、分析摘要或解釋性文本。
選項 (A) 增加財務收益通常是整體業務策略的結果,生成式 AI 直接影響的是工作效率和報告品質,對收益是間接影響。
選項 (C) 和 (D) 屬於市場營銷和客戶關係範疇,與財務報告產出無直接關聯。
選項 (B) 正確,通過自動化報告生成,生成式 AI 可以從數據中提取關鍵信息並生成標準化或客製化的報告內容,這有助於確保報告的準確性和一致性,同時減少人工編寫報告時可能出現的錯誤,顯著提升效率和報告品質。
在生成式 AI 導入過程中,資料安全與隱私保護的哪一方面是最重要的考量?
生成式 AI 需要處理大量數據(包括訓練數據和用戶輸入數據),其中可能涉及敏感或機密資訊。在導入過程中,確保數據不會被未經授權的人員或系統訪問、使用或洩露至關重要。這依賴於嚴格的權限控管 (Access Control) 機制,只允許必要的人員和系統訪問數據。同時,遵守相關的數據保護法律法規 (合規要求, Compliance) 也是必須的,例如 GDPR, HIPAA 等。其他選項與數據安全和隱私沒有直接關係。
若企業將資料安全管理外包給第三方服務供應商,屬於哪種風險應對策略?
風險管理有幾種策略:
風險緩解 (Risk Mitigation):採取措施降低風險發生的可能性或影響。
風險轉移 (Risk Transfer):將風險的責任轉移給第三方,例如購買保險或將服務外包給專業供應商。
風險接受 (Risk Acceptance):意識到風險的存在,但決定不採取任何措施。
風險規避 (Risk Avoidance):採取行動完全避免導致風險的活動。
將資料安全管理外包給第三方供應商,意味著企業將部分或全部的管理責任和相應的風險轉移給了該供應商,這符合風險轉移的定義。
在生成式 AI 的風險管理中,下列哪一項屬於倫理風險?
倫理風險 (Ethical Risk) 涉及 AI 系統的使用是否符合道德原則和社會價值觀,以及是否對個人或群體造成不公平或傷害。
選項 (A) 偏見 (Bias) 和歧視 (Discrimination) 是 AI 最突出的倫理問題之一,尤其是在生成式 AI 中可能通過生成的內容體現出來。
選項 (B) 系統運行中斷屬於營運風險 (Operational Risk)。
選項 (C) 存儲成本屬於財務風險 (Financial Risk) 或營運成本。
選項 (D) 員工培訓成本屬於財務風險或人力資源相關風險。
在企業導入 AI 的實施/營運階段,為持續發揮導入 AI 的價值,下列步驟的正確排序應為何?
A. AI 價值擴散
B. 上線部署
C. 模型監控與優化
在 AI 專案進入實施和營運階段後,典型的流程順序是:
B. 上線部署 (Deployment):將開發完成的 AI 模型或應用程式發布到生產環境供實際使用。
C. 模型監控與優化 (Monitoring & Optimization):在模型運行過程中持續監控其性能、穩定性、數據漂移等,並根據反饋或數據變化進行迭代和優化,確保其長期有效。
A. AI 價值擴散 (Value Diffusion):在應用穩定運行並產生價值後,將成功的經驗和模式推廣到企業內部的其他部門或業務場景,擴大 AI 應用的範圍和影響力,實現更大規模的價值。
因此,正確的順序是 B -> C -> A。
在管理生成式 AI 系統的隱私風險時,下列哪一種技術最能確保數據使用的安全性?
A
強化學習 (Reinforcement Learning )
C
零信任架構(Zero Trust Architecture )
D
注意力機制 (Attention Mechanism )
管理生成式 AI 的隱私風險,需要數據安全和訪問控制層面的技術和策略。
選項 (A) 和 (B) 是機器學習模型訓練的技術,與數據安全架構無直接關係。
選項 (D) 注意力機制是深度學習模型(特別是變換器)中的一種技術,與數據安全架構無關。
選項 (C) 正確,零信任架構 (Zero Trust Architecture) 是一種安全模型,其核心原則是「永不信任,始終驗證」。它要求在授予任何用戶或設備訪問權限之前,都必須進行嚴格的身份驗證和授權,並且訪問權限是最小化的。這種架構對於管理複雜的 AI 系統(包括數據管道、模型訪問、應用接口等)的隱私風險,確保只有經過授權的主體才能安全地使用數據,是非常有效的方法。
在驗證生成式 AI 應用的概念驗證(Proof of Concept, POC ) 時,若企業希望確保模型生成的公平性,最適合採用哪種評估策略?
B
對抗性測試 (Adversarial Testing )
在驗證生成式 AI 的公平性 (Fairness) 時,需要專門的方法來識別和量化模型輸出中存在的偏見 (Bias)。
選項 (A) 壓力測試用於評估系統在極高負載下的性能。
選項 (B) 對抗性測試用於評估模型對惡意輸入的穩健性 (Robustness)。
選項 (D) 延遲測試用於評估模型生成回應所需的時間。
選項 (C) 正確,偏差檢測 (Bias Detection) 方法,例如通過分析模型在不同敏感屬性群體(如性別、種族)上的生成內容是否存在差異或刻板印象,是評估生成式 AI 公平性的最直接和適合的策略。在 POC 階段進行偏差檢測有助於早期發現潛在的倫理風險。