47. 當資料集的預測變數過多時,下列哪種方法是從只有截距項的最簡單 模型出發,逐步加入重要的變數?
(A) 後向式逐步迴歸
(B) 前向式逐步迴歸
(C) 中向式逐步迴歸
(D) 反覆式逐步迴歸

答案:登入後查看
統計: A(1), B(5), C(0), D(4), E(0) #3219181

詳解 (共 1 筆)

#6332675

解析各選項,找出從「最簡單模型(只有截距項)」開始,逐步加入變數的方法

在**逐步迴歸(Stepwise Regression)**中,常見的方法有 前向式(Forward Selection)、後向式(Backward Elimination)、中向式(Stepwise Selection)。這些方法用來選擇最重要的變數,減少冗餘變數,以提升模型效能。

選項分析

(A) 後向式逐步迴歸(Backward Stepwise Regression)

  • 錯誤
  • 後向式(Backward Elimination)從包含所有變數的完整模型開始,然後逐步刪除影響不大的變數。
  • 它並非從最簡單模型開始,而是從複雜模型開始刪減變數。
  • 錯誤點:題目要求從「只有截距項的最簡單模型」開始,因此此方法不符合。

(B) 前向式逐步迴歸(Forward Stepwise Regression)

  • 正確(本題答案)
  • 前向式(Forward Selection) 是從只有截距項的最簡單模型開始,然後逐步加入最具影響力的變數。
  • 步驟如下:
    1. 開始時僅有截距項(Intercept-Only Model)
    2. 每次選擇與目標變數關聯性最強的變數加入模型(例如使用 p 值或 AIC/BIC)。
    3. 重複步驟 2,直到新加入的變數無法顯著提升模型表現
  • 此方法符合題目要求,因此是正確答案。

(C) 中向式逐步迴歸(Stepwise Regression)

  • 錯誤
  • 中向式(Stepwise Regression) 也稱為逐步選擇法(Stepwise Selection),它結合前向式與後向式
    • 先使用前向式加入變數
    • 再檢查是否有變數變得不重要並移除(像後向式)。
  • 雖然它可能從簡單模型開始,但它也有變數刪除的過程,與題目要求的「逐步加入變數」不完全一致。

(D) 反覆式逐步迴歸

  • 錯誤(無此標準方法)
  • 統計與機器學習中沒有「反覆式逐步迴歸」這種標準名稱的方法
  • 若指的是反覆執行變數選擇,可能與「中向式逐步迴歸」類似,但它並不是一個正式的名稱或方法。

結論

正確答案(符合從最簡單模型開始,逐步加入變數)
(B) 前向式逐步迴歸(Forward Stepwise Regression)

錯誤選項

  • (A) 後向式逐步迴歸(從完整模型刪除變數)
  • (C) 中向式逐步迴歸(同時加入與刪除變數,不完全符合題意)
  • (D) 反覆式逐步迴歸(無標準方法)

? 本題正確答案:「(B)」

0
0