16 請問下列何者不是常見的特徵選取技術或方法?
(A) 皮爾森積差相關分析(Pearson Correlation)
(B) 主成分分析(Principal Components Analysis, PCA)
(C) 迴歸分析(Regression Analysis)
(D) 隨機森林(Random Forest)

答案:登入後查看
統計: A(212), B(138), C(471), D(265), E(0) #3472207

詳解 (共 3 筆)

#6518753
正確答案:(C) 迴歸分析 (Regr...
(共 345 字,隱藏中)
前往觀看
15
0
#6558333

正確答案是:(C) 迴歸分析 (Regression Analysis)

解釋如下:

在資料探勘與機器學習中,**特徵選取(Feature Selection)**是指從原始特徵中挑選出對模型效果有幫助的子集,目的是提升模型效能、降低過擬合風險與運算成本。

以下是選項的比較:

  • (A) 皮爾森積差相關分析
    ✔ 常見的特徵選取方法,用來評估特徵與目標變數之間的線性相關程度。

  • (B) 主成分分析(PCA)
    ✱ 雖然嚴格來說是特徵轉換(Feature Extraction)而非選取,但常被用來降維處理,在應用上接近特徵選取的目的。

  • (C) 迴歸分析(Regression Analysis)
    主要是用來建模與預測,不是專門用來做特徵選取的方法。雖然可以透過係數的重要性判斷特徵,但這不是其主要用途。

  • (D) 隨機森林(Random Forest)
    ✔ 常被用來評估特徵的重要性(feature importance),再據此做特徵選取。

總結:

  • 若要嚴謹判斷「不是特徵選取方法」的話,答案就是 (C) 迴歸分析,因為它本質上是建模工具,而非選取技術。

9
0
#6598312

原因說明:

  • 特徵選取 (Feature Selection) 的目的在於從原始數據中選擇出最相關、最有效、最能代表數據本質的特徵子集,以提高模型性能、減少過擬合、加速訓練過程並提高模型的可解釋性。

我們來分析每個選項:

  • (A) 皮爾森積差相關分析(Pearson Correlation):這是一種常見的特徵選取方法。透過計算每個特徵與目標變數之間的相關係數,可以評估特徵的重要性。通常會選擇與目標變數相關性高,且彼此之間相關性低的特徵。因此,它是特徵選取的方法。

  • (B) 主成分分析(Principal Components Analysis, PCA):PCA 是一種 降維 (Dimensionality Reduction) 技術,而不是特徵選取技術。它將原始特徵轉換為一組新的、不相關的「主成分」,這些主成分是原始特徵的線性組合。PCA 的目標是減少數據的維度,同時保留大部分的變異性,但它並沒有選擇原始特徵的子集,而是創建了新的合成特徵。因此,它不是傳統意義上的特徵選取方法。

  • (C) 迴歸分析(Regression Analysis):迴歸分析是一種 統計建模 (Statistical Modeling) 技術,用於建立一個數學模型來描述一個或多個自變數(特徵)與一個因變數(目標)之間的關係,以便進行預測或解釋。雖然在迴歸模型中,我們可以通過觀察特徵的係數、p值或使用逐步迴歸等方法來判斷特徵的重要性,進而間接影響特徵的選擇,但迴歸分析本身的核心功能是建立預測模型,而不是一種專門的特徵選取「技術或方法」。相比於其他選項,它更偏向於模型訓練本身。

  • (D) 隨機森林(Random Forest):隨機森林是一種集成學習方法,除了用於分類和迴歸外,它也常用於 特徵重要性評估 (Feature Importance Ranking)。透過計算每個特徵在決策樹中分裂節點時所帶來的資訊增益或Gini不純度減少量,隨機森林可以提供一個特徵重要性的分數,然後可以根據這些分數來選擇最重要的特徵。因此,它是特徵選取的一種常用方法。

總結:

PCA 是降維技術,Random Forest 和 Pearson Correlation 是常見的特徵選取方法。而迴歸分析主要是一種建模技術,雖然可以從中獲取特徵重要性資訊,但其本身並非專門的特徵選取「技術或方法」。因此,最不屬於常見特徵選取技術或方法的是迴歸分析。

4
0

私人筆記 (共 1 筆)

私人筆記#7528717
未解鎖
解析與解題...
(共 625 字,隱藏中)
前往觀看
1
0