57. 哪一個方法可以用來測試AI是否在不同群體中公 平運作?
(A) 反事實假設狀況
(B) 訓練數據擴充
(C) 增加計算資源
(D) 限制 AI學習範圍

答案:登入後查看
統計: A(606), B(197), C(19), D(12), E(0) #3416332

詳解 (共 4 筆)

#6603474
反事實假設狀況(Counterfactual Scenario)是指,在保留除了某個特定條件之外的所有因素不變的情況下,假設該條件改變後,觀察可能發生的結果。
ㅤㅤ
簡單說,就是問自己:如果在一切都相同的情況下,只改變 X,會不會得到不同的結果?
ㅤㅤ
假設你去面試,模型預測你 「不錄取」。
  • 真實情況:你是女性、履歷內容如實
  • 反事實假設:假設在履歷完全相同的情況下,你的性別改為男性
  • 比較結果:
    • 如果模型預測改成「錄取」→ 可能存在性別偏見
    • 如果還是「不錄取」→ 至少性別不是主要影響因素
ㅤㅤ
反事實公平性(Counterfactual Fairness)就是利用這種假設,檢查模型在敏感屬性(性別、種族、年齡等)變化時,預測是否保持一致。這方法能幫助判斷模型的決策是否真的基於與任務相關的特徵,而非不該影響結果的屬性。
3
0
#6382538
這題正確答案是:
(A) 反事實假設狀況(Counterfactual scenarios)
ㅤㅤ

✅ 說明:

反事實假設狀況(Counterfactual scenarios) 是一種常用來檢測 AI 是否公平的方法。

它的邏輯是這樣的:

「如果只改變一個屬性(如性別、種族),其餘條件都相同,AI 的預測是否會跟著改變?」

例如:

  • 如果一位女性被拒絕貸款,我們製造一個幾乎一樣的「男性版本」資料,看看 AI 是否就會給過?

  • 若答案不同,代表模型可能有偏見(不公平)。

1
0
#6404598
答案是:(A) 反事實假設狀況 解析:...
(共 266 字,隱藏中)
前往觀看
1
0
#7309889

反事實假設(Counterfactual Analysis) 是一種常用來檢測 AI 公平性(Fairness) 的方法。
它的做法是:

  • 改變某些敏感特徵(例如性別、種族、年齡)

  • 其他條件保持相同

  • 觀察 AI 的預測結果是否改變

例如:
如果把某人的 性別從男性改成女性,但其他條件都一樣,AI 的結果卻改變了,可能表示模型存在 偏見或不公平

各選項分析:

  • (A) 反事實假設狀況 ✅ 可以用來測試 AI 在不同群體中的公平性

  • (B) 訓練數據擴充 → 主要是增加資料量,不是直接測試公平性

  • (C) 增加計算資源 → 與公平性測試無關

  • (D) 限制 AI 學習範圍 → 不是公平性檢測方法

0
0

私人筆記 (共 1 筆)

私人筆記#6912391
未解鎖
正確答案是:(A) 反事實假設狀況。 「...
(共 765 字,隱藏中)
前往觀看
0
0