49. 關於機器學習中的交叉驗證(Cross-Validation),下列敘述何者正確?
(A) 使用不同架構的模型在相同的資料上,以驗證訓練效果
(B) 是預測評估模型配適(fitting)度及尋找模型參數的方法
(C) 用來避免配適不足(underfitting)
(D) 將資料分割成訓練集(training set)跟測試集(testing set),進行訓練與分析

答案:登入後查看
統計: A(2), B(2), C(1), D(4), E(0) #3219183

詳解 (共 1 筆)

#6332684

解析各選項,找出正確的交叉驗證(Cross-Validation, CV)概念

交叉驗證(Cross-Validation, CV)是一種評估模型效能的方法,通常用於 確保模型的泛化能力(Generalization),避免過擬合(Overfitting),並協助選擇最佳模型參數。

選項分析

(A) 使用不同架構的模型在相同的資料上,以驗證訓練效果

  • 錯誤
  • 交叉驗證主要是在同一個模型上進行不同數據分割來驗證模型的泛化能力,而不是比較不同架構的模型。
  • 比較不同模型架構通常屬於 模型選擇(Model Selection),但這與交叉驗證的主要目標不同。
  • 錯誤點:交叉驗證不會針對不同架構的模型,而是針對相同模型的不同數據分割來評估效果

(B) 是預測評估模型配適(fitting)度及尋找模型參數的方法

  • 正確(本題答案)
  • 交叉驗證的主要目標是評估模型的「配適度(Fitting)」及「泛化能力」,並且可以用來選擇超參數(Hyperparameter Tuning)
  • 常見的交叉驗證方法有:
    • k-fold Cross-Validation:將數據集分成 kkk 份,輪流使用 k−1k-1k1 份作訓練集,1 份作測試集,重複 kkk 次後取平均。
    • Leave-One-Out CV (LOO-CV):每次只留一筆數據作測試,其餘用來訓練。
    • Stratified k-Fold CV:針對類別不平衡的問題,確保每折(Fold)的類別比例與原數據集相似。
  • 此外,交叉驗證可與超參數調整(Hyperparameter Tuning)結合,如 Grid Search 或 Random Search。

(C) 用來避免配適不足(Underfitting)

  • 錯誤
  • 交叉驗證的主要目標是避免「過擬合(Overfitting)」而非「配適不足(Underfitting)」
  • Underfitting 的問題通常來自於:
    • 模型過於簡單(如線性回歸無法擬合非線性資料)。
    • 特徵不足或數據未經適當轉換。
    • 訓練數據過少或過於雜訊化。
  • 交叉驗證無法解決 underfitting,反而是用來檢查是否發生 overfitting,因此此選項錯誤。

(D) 將資料分割成訓練集(training set)跟測試集(testing set),進行訓練與分析

  • 錯誤
  • 交叉驗證不只是單純地將資料分割成訓練集和測試集,而是將數據重複分割多次進行驗證
  • 如果只做單次訓練/測試分割,那是「Holdout Validation」而非「Cross-Validation」
  • 錯誤點:交叉驗證涉及多次數據拆分與測試,而不只是單次分割

結論

正確答案(B) 是預測評估模型配適(fitting)度及尋找模型參數的方法
錯誤選項

  • (A) 比較不同架構的模型 → 應該是模型選擇,而非交叉驗證
  • (C) 避免配適不足(Underfitting) → 交叉驗證主要防止過擬合(Overfitting),而非 underfitting
  • (D) 單純將資料分成訓練/測試集 → 這只是 Holdout Validation,不是交叉驗證

? 本題正確答案:「(B)」

0
0