【詳解卡福利】寫作批改懸賞券,將於 2025/03/31 23:59:59 過期,還沒使用或領取,趕快前往領取並使用吧! 前往查看

【阿摩】未分類題庫題庫下載題庫

上一題

153. 在生成式AI的開發中,訓練數據偏差可能導致哪種問題?
(A) 數據外洩
(B) 歧視與偏見
(C) 侵害智慧財產權
(D) 法規不合規



答案:登入後觀看
難度: 計算中

10
 【站僕】摩檸Morning:有沒有達人來解釋一下?
倒數 5天 ,已有 1 則答案
黃少豪 大一下 (2025/03/27):

解答:
(B) 歧視與偏見

詳解:
生成式AI的訓練數據偏差可能導致模型學到不公平或帶有偏見的模式,這會影響模型在實際應用中的表現,導致產生歧視性結果或偏見的判斷。例如,訓練數據若包含不平衡的性別、種族或地區數據,AI可能會在生成內容時強化這些偏見,進而產生不公正的結果。

選項解析:

  • (A) 數據外洩 是指數據安全問題,通常與數據的儲存與傳輸方式有關,與訓練數據偏差無關。

  • (C) 侵害智慧財產權 主要涉及使用未經授權的資料或生成侵犯他人知識產權的內容,這與訓練數據偏差無關。

  • (D) 法規不合規 是指AI系統未能遵守相關法律和規範,這與訓練數據偏差引起的倫理問題不同。

因此,訓練數據偏差最可能導致歧視與偏見

0個讚
檢舉


153. 在生成式AI的開發中,訓練數據偏差可能導致哪種問題? (A) 數據外洩..-阿摩線上測驗