6 假設某國正在考慮使用 AI 技術來進行社會信用評分,並根據年齡、缺陷、種族等特徵來評定個人的信用;同時,該國計劃在公眾場所使用遠 程生物辨識系統進行執法,目的在於提高社會秩序和安全。上述 AI 應用可能會引發對隱私和個人權利的重大關注,根據歐盟《人工智慧法》 (Artificial Intelligence Act, AIA)的風險分級,這類應用屬於哪一風險等級?
(A) 不可接受風險
(B) 高風險
(C) 有限風險
(D) 小或低風險

答案:登入後查看
統計: A(701), B(257), C(43), D(6), E(0) #3472197

詳解 (共 2 筆)

#6518716
正確答案:(A) 不可接受風險 解析:...
(共 209 字,隱藏中)
前往觀看
12
0
#6598307

根據歐盟《人工智慧法》(Artificial Intelligence Act, AIA)的規定,以下類型的AI系統被歸類為「不可接受風險」,並原則上被禁止:

  1. 社會信用評分 (Social Scoring): 該法案明確禁止公共當局或代表其使用的AI系統,對個人進行「社會評分」,如果這種評分導致在不相關的社會情境中對個人造成不利或不公平的待遇,或者與其社會行為的嚴重性不成比例。題目中提到根據「年齡、缺陷、種族等特徵」來評定個人信用,這不僅涉及歧視性特徵,更是一種對個人行為和屬性進行廣泛監控和評估的社會控制手段,嚴重侵犯了基本人權和尊嚴。

  2. 在公共場所使用遠端生物辨識系統 (Remote Biometric Identification in Publicly Accessible Spaces): 歐盟AI法案原則上禁止在公共場所實時使用遠端生物辨識系統進行執法,除非有非常嚴格和明確的例外情況(例如,搜尋特定犯罪受害者、防止恐怖襲擊、識別嚴重犯罪的嫌疑人等)。題目中描述的目的是「提高社會秩序和安全」,這是一個過於寬泛的理由,且未提及任何嚴格的限制或例外,這種廣泛的應用被認為是對隱私權和結社自由等基本權利的嚴重且不成比例的侵犯。

綜合以上兩點,這兩種AI應用都直接觸及了歐盟AI法案中明確禁止的行為,因為它們對基本人權、民主價值和法治構成不可接受的威脅。因此,它們屬於「不可接受風險」等級。

6
0