57. 哪一個方法可以用來測試AI是否在不同群體中公 平運作?
(A) 反事實假設狀況
(B) 訓練數據擴充
(C) 增加計算資源
(D) 限制 AI學習範圍
答案:登入後查看
統計: A(606), B(197), C(19), D(12), E(0) #3416332
統計: A(606), B(197), C(19), D(12), E(0) #3416332
詳解 (共 4 筆)
#6603474
反事實假設狀況(Counterfactual Scenario)是指,在保留除了某個特定條件之外的所有因素不變的情況下,假設該條件改變後,觀察可能發生的結果。
ㅤㅤ
簡單說,就是問自己:如果在一切都相同的情況下,只改變 X,會不會得到不同的結果?
ㅤㅤ
假設你去面試,模型預測你 「不錄取」。
- 真實情況:你是女性、履歷內容如實
- 反事實假設:假設在履歷完全相同的情況下,你的性別改為男性
- 比較結果:
- 如果模型預測改成「錄取」→ 可能存在性別偏見
- 如果還是「不錄取」→ 至少性別不是主要影響因素
ㅤㅤ
反事實公平性(Counterfactual Fairness)就是利用這種假設,檢查模型在敏感屬性(性別、種族、年齡等)變化時,預測是否保持一致。這方法能幫助判斷模型的決策是否真的基於與任務相關的特徵,而非不該影響結果的屬性。
3
0
#6382538
這題正確答案是:
(A) 反事實假設狀況(Counterfactual scenarios)
(A) 反事實假設狀況(Counterfactual scenarios)
ㅤㅤ
✅ 說明:
反事實假設狀況(Counterfactual scenarios) 是一種常用來檢測 AI 是否公平的方法。
它的邏輯是這樣的:
「如果只改變一個屬性(如性別、種族),其餘條件都相同,AI 的預測是否會跟著改變?」
例如:
-
如果一位女性被拒絕貸款,我們製造一個幾乎一樣的「男性版本」資料,看看 AI 是否就會給過?
-
若答案不同,代表模型可能有偏見(不公平)。
1
0
#7309889
反事實假設(Counterfactual Analysis) 是一種常用來檢測 AI 公平性(Fairness) 的方法。
它的做法是:
-
改變某些敏感特徵(例如性別、種族、年齡)
-
其他條件保持相同
-
觀察 AI 的預測結果是否改變
例如:
如果把某人的 性別從男性改成女性,但其他條件都一樣,AI 的結果卻改變了,可能表示模型存在 偏見或不公平。
各選項分析:
-
(A) 反事實假設狀況 ✅ 可以用來測試 AI 在不同群體中的公平性
-
(B) 訓練數據擴充 → 主要是增加資料量,不是直接測試公平性
-
(C) 增加計算資源 → 與公平性測試無關
-
(D) 限制 AI 學習範圍 → 不是公平性檢測方法
0
0