iPAS AI應用規劃師初級能力鑑定-考試樣題
科目一:人工智慧基礎概論
A 6.假設某國正在考慮使用AI技術來進行社會信用評分,並根據年齡、缺 陷、種族
等特徵來評定個人的信用;
同時,該國計劃在公眾場所使用遠 程生物辨識系統進行執法,
目的在於提高社會秩序和安全。
上述AI應 用可能會引發對隱私和個人權利的重大關注,
根據歐盟《人工智慧法》 (Artificial Intelligence Act, AIA)的風險分級,
這類應用屬於哪一風 險等級?
(A) 不可接受風險
(B) 高風險
(C) 有限風險
(D) 小或低風險
A 7.某生成式AI模型接收一段語音輸入:
「一隻戴著太空帽的企鵝正在火星 上跳舞」,
並根據該語音內容產生一張圖像呈現相對應的場景。
此類模 型最符合下列哪一種生成任務分類?
(A) 語音生成圖片
(B) 圖像生成語音
(C) 語音翻譯
(D) 圖像標註
D 8.下列何者非大數據時代資料的特性?
(A) 資料量大
(B) 資料變動速度快
(C) 資料多樣性
(D) 資料存儲位置固定
\
D 9.關於K平均法(K-means)非監督式學習,下列敘述何者「不」正確?
(A) 希望找出k個互不交集的群集
(B) 不同的起始群集中心,可能會造成不同的分群結果
(C) 容易受雜訊與離群值(Outlier)影響其群集中心
(D) 可以處理類別型資料
A 10.在公司財務資料中,發現某筆支出金額達1,000,000元,若希望合理判 斷
該筆資料 是否為異常值,下列哪一種處理方式最為合適?
(A) 以Z-score方法量化異常程度,判斷是否為極端值;
(B) 以資料中的眾數作為參考基準,判斷其是否異常;
(C) 先透過主成分分析(PCA)降低維度,再進行異常值判定;
(D) 直接將該筆金額替換為資料中位數,以降低其對分析結果的影響
參考資料1:
歐盟《人工智慧法》有關通用人工智慧模型(GPAI)相關規範正式實施,將促進歐盟市場AI系統的透明度、安全性及可追溯性
2025-08-01
歐盟執委會(European Commission, EC)於2025年8月1日表示,《人工智慧法(Artificial Intelligence Act, AIA)》中有關通用人工智慧(General-Purposed Artificial Intelligence, GPAI)模型提供者須遵守義務之相關規範,將於同年8月2日正式生效,可望促進歐盟市場上AI系統的透明度、安全性及可追溯性。
為協助業者合規,EC自2025年7月起陸續發布「GPAI實踐準則(GPAI Code of Practice)」及「GPAI模型義務範圍指引(Guidelines on the scope of the obligations for general-purpose AI models)」,並將GPAI模型定義為「訓練過程使用運算量達1023次浮點運算(Floating-point Operations, FLOP)以上,且具生成語言能力的AI模型」,提供者須遵守透明度與著作權等義務。此外,運算量達1025次FLOP以上,則視為可能構成具系統性風險的GPAI模型,提供者另須負擔確保安全與通報EC等額外義務。
根據EC規定,所有於歐盟市場提供GPAI模型的業者,須自2025年8月2日起遵守相關義務;同年8月2日前已上市之模型,則須在2027年8月2日前確保合規。
在演算法中的集群分析裡,K平均法(K-means)是一種將樣本觀察值
加以分析,主要將具有某些共同特性者先整合在一起,然後分配到特定的群體,
最後形成許多不同集合集群的一種分析方法。
K平均法(K-means)是由麥昆(J. B. MacQueen)於1967年正式發表,
由於原理簡單、計算快速,頗受歡迎。
而其就是將異質的群體區隔,
分成一些同質性較高的子群組或集群,不需要事先定義好該如何分類,
也不需要訓練組資料,而是靠資料自身的相似性集群在一起,
最常使用在市場區隔的應用上。
參考資料3:
主成分 (Principal Components)分析(PCA)是一種 資料降維技術,
它 透過線性變換 將 高維度資料 轉換到 低維度空間,
同時保留資料最主要的變異性,產生一組稱為「主成分」的新變數,
這些主成分是原始變數的線性組合,且彼此正交(不相關),
依解釋變異量大小排序。
PCA常用於 數據壓縮、去除雜訊、 數據可視化 及 解決多重共線性 問題。
PCA 核心概念
目的:減少數據維度(特徵數量),同時盡量保留原始資訊,解決“維度詛咒”。
主成分 (Principal Components):
新的座標軸,代表資料中變異最大的方向。
變異性:
資料的分散程度,PCA旨在捕捉最大的變異。
線性變換:
將原始數據投影到新的低維空間。
正交:
主成分之間互不相關。
PCA 的主要步驟
資料標準化:
使不同量綱的特徵均值為0,方差為1。
計算協方差矩陣:
分析特徵間的線性關係。
特徵值分解:
計算協方差矩陣的特徵值(重要性)與特徵向量(方向)。
選擇主成分:
選擇解釋變異量最大的前 \(k\) 個特徵向量。
數據投影:
將原始數據轉換到由選定主成分構成的新空間。
PCA 的應用
數據降維:
簡化模型,加速計算。
資料壓縮:
儲存更少數據。
數據可視化:
將高維數據降至2D或3D方便觀察。
特徵提取:
從原始特徵中提取更有意義的組合。
機器學習預處理:
消除冗餘特徵和多重共線性