所屬科目:CIIE◆智慧製造
1. 非監督式學習 (Unsupervised Learning) 的主要目的是什麼? (A) 在無標籤下發現資料隱藏結構或進行分組。 (B) 根據已知的標籤,預測新資料的類別或數值。 (C) 透過與環境互動,學習一個行為策略,以最大化累積獎勵。 (D) 建立一個能與環境互動的智慧體 (Agent) 模型。
2. K-均值 (K-means) 聚類演算法是一種什麼類型的學習? (A) 半監督式學習 (Semi-supervised Learning) (B) 強化學習 (Reinforcement Learning) (C) 監督式學習 (Supervised Learning) (D) 非監督式學習 (Unsupervised Learning)
3. 要判斷 K-means 聚類結果的品質,可以使用哪種指標來衡量聚類結果的緊密性與分離 性? (A) 輪廓係數 (Silhouette Coefficient) (B) 準確度 (Accuracy) (C) F1-Score (D) ROC 曲線
4. 在建立決策樹時,如果一個節點的所有樣本都屬於同一個類別,則該節點會如何? (A) 繼續分裂 (B) 重新選擇特徵 (C) 採用隨機分裂 (D) 成為葉節點
5. 相較於決策樹,支持向量機 (SVM) 在處理哪一類問題上通常展現出更好的效能? (A) 資料集包含大量缺失值和離群值的問題 (B) 線性可分或可透過核函數轉換為線性可分的二元或多元分類問題 (C) 需要快速訓練和推論的即時系統 (D) 資料量非常龐大且複雜度極高的問題
6. 下列哪種方法是為了解決 K-means 聚類結果對初始中心點敏感的問題? (A) 交叉驗證 (Cross-validation) (B) K-means++ 初始化 (C) Gini 不純度計算 (D) 核函數轉換
7. 在標準神經網路(多層感知器 MLP)中,隱藏層節點的輸出通常會經過哪一類非線性轉換? (A) 損失函數 (Loss Function) (B) 激活函數 (Activation Function) (C) 學習率 (Learning Rate) (D) 批次大小 (Batch Size)
8. 在神經網路的訓練過程中,哪一個步驟是計算模型輸出與實際目標值之間的差異? (A) 正向傳播 (Forward Propagation) (B) 權重初始化 (C) 損失計算 (Loss Calculation) (D) 採樣 (Sampling)
9. 卷積神經網路中的「池化層」(Pooling Layer) 主要作用是什麼? (A) 增加特徵圖的維度 (B) 增加模型的非線性能力 (C) 動態調整模型訓練時的學習率 (D) 減少特徵圖空間維度以降低計算量
10. 長短期記憶網路 (Long Short-Term Memory, LSTM) 是哪種網路的變體,主要目的是為了 緩解梯度消失問題? (A) 卷積神經網路 (CNN) (B) 標準神經網路 (MLP) (C) 遞歸神經網路 (RNN) (D) 生成對抗網路 (GAN)
11. 在神經網路的反向傳播 (Backpropagation) 過程中,下列哪一者不會被更新? (A) 權重 (Weights) (B) 偏差 (Biases) (C) 學習率 (Learning Rate) (D) 損失函數的梯度 (Gradient)
12. 標準神經網路的主要限制是無法有效地捕捉到輸入數據(如圖像)中的什麼特性? (A) 數據的非線性映射特性 (Nonlinear Mapping) (B) 特徵之間的線性相關關係 (Linear Correlation) (C) 反向傳播中的梯度資訊 (Gradient Information) (D) 空間局部性 (Locality) 與平移不變性 (Translation Invariance)
13. 在深度學習物件辨識中,哪一種著名的演算法將物件偵測視為一個迴歸問題? (A) YOLO (You Only Look Once) (B) R-CNN (Region-based CNN) (C) AlexNet (D) K-means
14. 圖像的「邊緣檢測」(Edge Detection) 是屬於哪一種圖像處理的範疇? (A) 圖像分割 (Image Segmentation) (B) 圖像恢復 (Image Restoration) (C) 圖像增強 (Image Enhancement) (D) 圖像形態學 (Image Morphology)
15. 在深度學習的物件辨識任務中,輸出結果通常包含哪兩部分? (A) 損失函數值與激活函數值 (Loss and Activation Values) (B) 網路權重參數與偏差項 (Network Weights and Biases) (C) 原始像素值與背景雜訊 (Pixel Values and Noise) (D) 邊界框座標 (Bounding Box) 與類別標籤 (Class Label)
16. 在圖像處理中,將圖像的像素值替換為其周圍鄰域像素值的中位數(Median)的方法, 主要用於去除哪一類雜訊? (A) 高斯雜訊 (Gaussian Noise) (B) 椒鹽雜訊 (Salt-and-pepper Noise) (C) 均勻雜訊 (Uniform Noise) (D) 週期性雜訊 (Periodic Noise)
17. 在圖像的二值化處理中,通常採用什麼方法將灰階圖像轉換為黑與白兩種顏色的圖像? (A) 卷積操作 (B) 設定一個閾值 (C) 應用高斯濾波器 (D) 應用池化操作
18. 圖像識別的應用領域非常廣泛,下列何者不屬於其典型應用? (A) 自動駕駛中的交通標誌識別 (B) 醫療影像中的腫瘤檢測 (C) 股票市場的型態辨認 (D) 工業上的產品瑕疵檢測
19. 下列哪種行為識別 (Action Recognition) 的應用在智慧監控系統中特別重要? (A) 識別影片中的天氣狀況 (B) 識別影片中的背景音樂 (C) 識別影片中的異常行為 (D) 識別影片的編碼格式
20. 在視頻壓縮標準(如 MPEG)中,動作估計和動作補償對於提高壓縮效率有何作用? (A) 增加視頻的解析度 (B) 去除冗餘資訊以減少數據量 (C) 提高視頻的色彩飽和度 (D) 消除視頻中的摩爾紋 (Moiré pattern)
21. 在基於深度學習的視頻行為識別中,如果需要捕捉到較長時間範圍內的行為依賴性,通 常會採用哪種網路架構? (A) K-均值聚類 (B) 標準的多層感知器 (MLP) (C) 支持向量機 (SVM) (D) 遞歸神經網路 (RNN) 或 3D 卷積神經網路 (3D CNN)
22. 在物件追蹤中,如果物件被遮擋了一段時間,深度學習模型要維持追蹤,通常需要依賴 哪種機制? (A) 增加濾波器的大小 (B) 依賴模型的時序記憶和預測能力 (C) 降低模型的學習率 (D) 重新計算圖像的灰階值
23. 在深度學習物體追蹤的應用中,哪一項技術可以用於監測工廠生產線上的移動部件? (A) 實時物件追蹤 (B) 文本情感分析 (C) K-means 聚類 (D) 支持向量機分類
24. 在視頻壓縮中,P 幀 (Predicted Frame) 的內容通常是透過什麼方式計算出來的? (A) 完全獨立於其他幀 (B) 依賴於前一個或多個 I 幀或 P 幀的動作估計和動作補償 (C) 透過 K-means 聚類 (D) 直接複製第一個 I 幀的內容
25. 在語音處理中,將時域訊號轉換到頻域最核心的目的為何? (A) 把能量分佈表成頻帶結構以利特徵抽取與辨識 (B) 直接消除所有背景噪音 (C) 降低取樣率以節省計算 (D) 讓語音內容自動變成文字
26. 下列何者最能正確描述音訊取樣率過低可能造成的問題? (A) 只影響語言模型不影響聲學模型 (B) 只會讓音量變小但特徵不變 (C) 只要用更深的模型就能完全補償 (D) 可能產生混疊使高頻成分折疊到低頻而扭曲特徵
27. 關於梅爾頻率倒譜係數 (MFCC) 的敘述,何者最符合其設計直覺? (A) 只能用於音樂檢索而非語音 (B) 直接保留原始波形以避免資訊流失 (C) 以接近人耳感知的頻帶刻度壓縮頻譜並提取可辨識的倒譜特徵 (D) 其主要目的是讓模型不需要資料正規化
28. 序列式語音辨識常用連接時序分類 (CTC) 的主要原因是? (A) 能讓模型不需要任何正規化 (B) 能把語言模型完全取代 (C) 無需人工對齊即可學習序列映射 (D) 能保證每個音素都有人工標註對齊
29. 若系統字錯誤率 (Word Error Rate) 很低但客訴仍多,最可能原因是? (A) 只要換成更深模型就會改善 (B) 字錯誤率 (Word Error Rate) 等於 0 才能部署 (C) 一定是資料量太少 (D) 評估指標與真實任務成本不一致
30. 下列哪一種做法最能直接提升語音模型對環境噪音的穩健性(robustness)? (A) 把模型層數翻倍 (B) 把輸入改成單聲道 (C) 在訓練時加入符合部署環境分佈的噪音/混響資料增強 (D) 把 learning rate 調大
31. 相依剖析 (dependency parsing) 最適合用來捕捉哪一類訊息? (A) 詞向量的維度大小 (B) 語音的頻譜能量分佈 (C) 句子中詞與詞之間的語法支配關係 (D) 影像的物件位置
32. 自然語言處理 (NLP) 模型在新領域(例如醫療→法律)崩壞最精準的技術說法是? (A) 語料分佈/用語模式改變造成 domain shift,使統計規賦失效 (B) 過擬合:只要加 dropout (C) 只要換更大模型就必然改善 (D) 欠擬合:增加 epoch 一定好
33. 下列何者最貼近詞性標記 (POS Tagging) 與相依剖析在流程上的關係? (A) 詞性標記常作為句法分析的輔助特徵,但兩者可獨立建模 (B) 詞性標記一定要先做,否則無法剖析 (C) 兩者完全無關 (D) 剖析等同詞性標記的延伸分類
34. 模型在測試集指標很好但線上關鍵績效指標 (KPI) 很差,最常見的原因是? (A) 資料一定不足 (B) 離線指標與線上任務成本/行為回饋機制不一致 (objective mismatch) (C) GPU 不夠 (D) batch size 太小
35. 詞性標記 (POS Tagging) 在關鍵功能詞(如否定)上出錯,對下游最可能的影響是? (A) 只會使句子變短 (B) 不會影響任何下游任務 (C) 只會影響發音 (D) 語意極性或關係結構被反轉
36. 相依剖析對資訊抽取 (IE) 最直接的價值是? (A) 提供結構化關係線索,降低僅靠鄰近詞的誤判 (B) 把分類問題變成分群問題 (C) 自動產生更多訓練資料 (D) 提供更高解析度的音訊特徵
37. support 在關聯規則中扮演的最核心角色是? (A) 衡量推薦系統的冷啟動程度 (B) 衡量模型收斂速度 (C) 衡量因果強度 (D) 衡量規則在資料中出現的覆蓋程度
38. 把關聯規則當成因果規則最可能造成的決策風險是? (A) 一定會提升營收 (B) 採取干預後效果不如預期甚至反向,因為混雜因素未控制 (C) 只會影響運算時間 (D) 只會影響資料庫大小
39. 推薦系統冷啟動最精準的定義是? (A) 物品太多導致資料庫滿 (B) 用戶變多導致系統變慢 (C) 模型太大導致欠擬合 (D) 新用戶/新物品缺乏互動歷史而無法推斷偏好
40. 協同過濾常見的「回音室效應」指的是? (A) 系統不斷強化既有偏好,導致多樣性降低與偏誤累積 (Preference Reinforcement) (B) 推薦模型在運算過程中完全不依賴任何用戶特徵標籤 (Feature-Independent) (C) 推薦演算法產生的輸出結果具備高度不確定與隨機性 (Stochastic Outputs) (D) 系統透過反事實推論自動確保內容多樣性與社會公平 (Counterfactual Fairness)
41. 推薦系統離線 AUC 很高但線上轉換率差,最常見根因是? (A) 只要加深模型就好 (B) 離線樣本與線上曝光/互動機制不同 (C) AUC 不能用於推薦 (D) 資料一定太少
42. 若只最大化點擊率,最可能犧牲哪一項長期目標? (A) 模型的離線預測準確指標 (Offline Accuracy Metrics) (B) 資料庫的實時更新效率 (Real-time Update Efficiency) (C) 推薦內容的多樣性與新穎度 (Diversity and Novelty) (D) 伺服器端的單次請求延遲 (Request Latency)
43. Conditional GAN (cGAN) 引入條件資訊的最主要目的為? (A) 讓鑑別器不需要輸入 (B) 把生成問題變成分群 (C) 提升結果可控性 (D) 保證不會 mode collapse
44. CycleGAN 的循環一致性 (cycle consistency) 主要是在解決什麼限制? (A) 保證映射是線性的 (B) 讓生成器不需要學習 (C) 把影像變成語音 (D) 在無成對資料下仍能學習兩域之間的映射
45. Q 學習 (Q-learning) 為 off-policy 方法,其實務風險之一是? (A) 行為策略與目標策略不一致,易導致估計偏差與訓練不穩 (Policy Mismatch) (B) 演算法設計本質使模型在任何情境下皆完全無法使用離線資料 (Offline Data) (C) 模型訓練過程高度依賴具有專家標籤的成對監督式資料集 (Paired Data Only) (D) 在處理連續動作空間時會因探索機制限制而絕對無法收斂 (Non-convergence)
46. 條件式生成 (Conditional Generation) 在資料標註有系統性偏差時,最可能造成什麼後 果? (A) 標籤偏差僅會影響模型生成的運算速度 (Inference Speed) (B) 資料偏差會透過批次正規化自動被消除 (Batch Normalization) (C) 條件式生成機制能自動確保輸出結果更公平 (Fairness Improvement) (D) 生成結果被偏差條件牽引,產生偏誤放大與不公平 (Bias Amplification)
47. 在深度 Q 網路 (DQN) 中引入目標網路 (Target Network) 的主要目的為? (A) 降低目標值與被更新網路的耦合以穩定學習過程 (Decoupling and Stability) (B) 讓行為策略的探索率固定在特定常數範圍內 (Fixed Exploration Rate) (C) 確保智慧體在單一回合內獲得累積獎勵最大化 (Maximize Reward) (D) 增加神經網路層數以提升模型的學習容量 (Model Capacity)
48. 生成模型 (Generative Model) 雖然「看起來很真」但仍可能不可用,最常見的原因是? (A) 生成過程中的損失函數值降得不夠低 (Loss Function Convergence) (B) 樣本多樣性不足或存在嚴重的系統性偏差 (Diversity and Bias) (C) 模型在推論階段所耗費的計算資源過於龐大 (Computational Cost) (D) 模型訓練前未針對輸入資料進行相依剖析 (Dependency Parsing)
49. 在品質或故障預測中,整體準確率很高但關鍵失效類別的召回率 (Recall) 很低,其主要 風險是? (A) 對罕見但高損失事件失效,造成重大事故 (High-Loss Failure) (B) 導致後端伺服器的歷史資料庫發生過度膨脹 (Database Bloat) (C) 使得模型在邊緣裝置上的即時推論速度變慢 (Inference Latency) (D) 輸入特徵的維度過小導致模型無法順利收斂 (Dimension Scarcity)
50. 在生活應用中,即使模型具備「高準確率」仍不代表可放心使用,最常見的原因是? (A) 高準確率通常代表模型已不存在任何風險 (Risk-Free Model) (B) 高準確率會自動確保輸出結果具備社會公平 (Automatic Fairness) (C) 高準確率的表現可完全取代產業的安全合規 (Safety Compliance) (D) 錯誤成本非對稱且長尾情境未被有效覆蓋 (Asymmetric Costs and Long-tail)