39. 特徵挑選(Feature Selection)是指挑選原始資料中的合宜屬性,或可視為移除缺乏訊息內涵之變數的維度縮減策略,下列常用的降維方法 中,何者屬於特徵挑選的方式?
(A) 因子分析(Factor Analysis)
(B) 非負矩陣分解(Non-negative Matrix Factorization)
(C) 隨機投影(Random Projections)
(D) 高相關過濾(High Correlation Filter)
答案:登入後查看
統計: A(4), B(1), C(0), D(5), E(0) #3219173
統計: A(4), B(1), C(0), D(5), E(0) #3219173
詳解 (共 1 筆)
#6332656
解析各選項,找出屬於「特徵挑選(Feature Selection)」的方法:
特徵挑選(Feature Selection) vs. 特徵萃取(Feature Extraction)
-
特徵挑選(Feature Selection):
- 目標是從原始變數中挑選最具代表性的變數,刪除冗餘或無效變數,而不改變原始變數的解釋意義。
- 例如:過濾高相關變數、卡方檢定(Chi-Square)、LASSO、隨機森林重要性(Feature Importance)。
-
特徵萃取(Feature Extraction):
- 目標是將原始變數轉換成新的變數(通常是降維後的數據),但這些新變數可能無法直接解釋為原始變數的概念。
- 例如:主成分分析(PCA)、非負矩陣分解(NMF)、因子分析(FA)。
選項分析
(A) 因子分析(Factor Analysis, FA)
- ❌ 錯誤(屬於特徵萃取)
- 因子分析的目標是發掘潛在變數(Factors),並用較少的因子來表示原始變數的資訊。
- 它會重新組合變數,產生新的變數,因此屬於特徵萃取(Feature Extraction),而非特徵挑選。
(B) 非負矩陣分解(Non-negative Matrix Factorization, NMF)
- ❌ 錯誤(屬於特徵萃取)
- NMF 會將原始資料分解成兩個較小的矩陣,使得所有值都為非負數。
- 這是改變原始變數結構的降維技術,屬於特徵萃取,而非特徵挑選。
(C) 隨機投影(Random Projections)
- ❌ 錯誤(屬於特徵萃取)
- 隨機投影是一種透過隨機線性變換將高維資料投影到低維空間的方法。
- 它與 PCA 相似,會改變原始特徵的意義,因此屬於特徵萃取,而非特徵挑選。
(D) 高相關過濾(High Correlation Filter)
- ✅ 正確(屬於特徵挑選)
- 高相關過濾法(High Correlation Filter) 是一種 Feature Selection 方法,目標是:
- 計算變數之間的相關係數(如皮爾遜相關係數 Pearson Correlation)。
- 移除那些高度相關的變數,以減少冗餘資訊。
- 這樣的過濾方法不會改變變數的結構,而只是挑選適合的變數,因此屬於特徵挑選(Feature Selection)。
結論
✅ 正確答案:(D) 高相關過濾(High Correlation Filter)
❌ 錯誤選項(屬於特徵萃取):(A)、(B)、(C)
? 本題正確答案:「(D)」
0
0