47. 當資料集的預測變數過多時,下列哪種方法是從只有截距項的最簡單
模型出發,逐步加入重要的變數?
(A) 後向式逐步迴歸
(B) 前向式逐步迴歸
(C) 中向式逐步迴歸
(D) 反覆式逐步迴歸
答案:登入後查看
統計: A(1), B(5), C(0), D(4), E(0) #3219181
統計: A(1), B(5), C(0), D(4), E(0) #3219181
詳解 (共 1 筆)
#6332675
解析各選項,找出從「最簡單模型(只有截距項)」開始,逐步加入變數的方法
在**逐步迴歸(Stepwise Regression)**中,常見的方法有 前向式(Forward Selection)、後向式(Backward Elimination)、中向式(Stepwise Selection)。這些方法用來選擇最重要的變數,減少冗餘變數,以提升模型效能。
選項分析
(A) 後向式逐步迴歸(Backward Stepwise Regression)
- ❌ 錯誤
- 後向式(Backward Elimination) 是從包含所有變數的完整模型開始,然後逐步刪除影響不大的變數。
- 它並非從最簡單模型開始,而是從複雜模型開始刪減變數。
- 錯誤點:題目要求從「只有截距項的最簡單模型」開始,因此此方法不符合。
(B) 前向式逐步迴歸(Forward Stepwise Regression)
- ✅ 正確(本題答案)
- 前向式(Forward Selection) 是從只有截距項的最簡單模型開始,然後逐步加入最具影響力的變數。
- 步驟如下:
- 開始時僅有截距項(Intercept-Only Model)。
- 每次選擇與目標變數關聯性最強的變數加入模型(例如使用 p 值或 AIC/BIC)。
- 重複步驟 2,直到新加入的變數無法顯著提升模型表現。
- 此方法符合題目要求,因此是正確答案。
(C) 中向式逐步迴歸(Stepwise Regression)
- ❌ 錯誤
- 中向式(Stepwise Regression) 也稱為逐步選擇法(Stepwise Selection),它結合前向式與後向式:
- 先使用前向式加入變數。
- 再檢查是否有變數變得不重要並移除(像後向式)。
- 雖然它可能從簡單模型開始,但它也有變數刪除的過程,與題目要求的「逐步加入變數」不完全一致。
(D) 反覆式逐步迴歸
- ❌ 錯誤(無此標準方法)
- 統計與機器學習中沒有「反覆式逐步迴歸」這種標準名稱的方法。
- 若指的是反覆執行變數選擇,可能與「中向式逐步迴歸」類似,但它並不是一個正式的名稱或方法。
結論
✅ 正確答案(符合從最簡單模型開始,逐步加入變數):
(B) 前向式逐步迴歸(Forward Stepwise Regression)
❌ 錯誤選項:
- (A) 後向式逐步迴歸(從完整模型刪除變數)
- (C) 中向式逐步迴歸(同時加入與刪除變數,不完全符合題意)
- (D) 反覆式逐步迴歸(無標準方法)
? 本題正確答案:「(B)」
0
0