22. 下列那一種重抽樣方法是隨機 k 等分樣本集後,每次保留一 份作為測試集樣本,而以其餘 k-1 份樣本進行模型訓練?
(A) 拔靴抽樣(Bootstrapping)
(B) 交叉驗證(Fold Cross Validation)
(C) 保留法(Holdout)
(D) 袋外樣本(Out-of-bag Samples)

答案:登入後查看
統計: A(1), B(18), C(2), D(0), E(0) #3323452

詳解 (共 1 筆)

#6329752

正確答案:
? (B) 交叉驗證 (Fold Cross Validation)

解析

交叉驗證 (Cross Validation, CV) 是一種重抽樣 (Resampling) 方法,目的是提高模型的泛化能力,減少過擬合風險。其中,k-fold 交叉驗證 是最常見的類型:

  1. 將數據集隨機劃分為 k 個等分 (folds)
  2. 每次選擇其中 1 份作為測試集,剩下的 k-1 份作為訓練集
  3. 重複 k 次,確保每個子集都被當作一次測試集
  4. 最後平均 k 次的結果,得到最終模型的評估指標

因此,交叉驗證符合題目描述的「隨機 k 等分樣本,每次保留一份作為測試集,剩下 k-1 份訓練模型」的方式

為什麼其他選項錯誤?

  1. (A) 拔靴抽樣 (Bootstrapping) ❌

    • 這是一種有放回的隨機抽樣方法,通常用來進行統計估計,或用於隨機森林 (Random Forest) 訓練不同的子模型。
    • 它的做法與「k 等分樣本」的方式不同。
  2. (C) 保留法 (Holdout) ❌

    • 直接將數據集劃分為訓練集與測試集 (如 80%:20% 或 70%:30%),但不會做 k 次重複測試
    • 這種方法適合大型數據集,但缺點是可能因為分割方式不均勻,影響評估結果。
  3. (D) 袋外樣本 (Out-of-bag, OOB Samples) ❌

    • 這是 隨機森林 (Random Forest) 使用的特殊方法
    • 在隨機森林中,每棵決策樹都是透過 Bootstrapping 進行訓練,因此約 63% 的樣本被用來訓練,每棵樹未使用的數據稱為「袋外樣本」(OOB Samples),可用來評估模型表現。
    • OOB 方法並沒有進行 k 等分,而是由於 Bootstrapping 產生的結果

結論

? (B) 交叉驗證 (Fold Cross Validation) 是正確答案,因為它符合「隨機 k 等分樣本集,每次保留一份作為測試集,剩餘 k-1 份訓練」的描述。

0
0