23. 類神經網路中,下列哪一個選項主要負責引入非線性能力,使網路能夠學習複雜的模式?
(A)權重(Weights)
(B)偏差(Bias)
(C)激勵函數(Activation Function)
(D)損失函數(Loss Function)。
答案:登入後查看
統計: A(13), B(5), C(21), D(6), E(0) #3435252
統計: A(13), B(5), C(21), D(6), E(0) #3435252
詳解 (共 2 筆)
#6410539
在類神經網路中:
- 權重 (Weights) 和 偏差 (Bias) 是網路的參數,它們對輸入進行線性轉換(加權求和並加上偏差)。僅僅依靠權重和偏差,無論堆疊多少層,都只能實現線性的輸入輸出關係。
- 損失函數 (Loss Function) 用於衡量網路的輸出與實際目標值之間的差距,用於在訓練過程中指導權重和偏差的更新方向,但它本身不引入非線性能力來建模資料。
- 激勵函數 (Activation Function) 應用於加權求和加上偏差的結果之後。大部分常用的激勵函數(如 ReLU, Sigmoid, Tanh 等)都是非線性函數。正是這些非線性激勵函數的存在,使得類神經網路能夠逼近和學習資料中的複雜非線性模式。如果沒有非線性激勵函數(或者只使用線性激勵函數),無論網路有多少層,其整體效果都等同於一個單層的線性模型。
因此,主要負責引入非線性能力,使網路能夠學習複雜模式的是激勵函數。
1
0
#6436661
(A) 權重 (Weights):決定輸入訊號對神經元輸出的影響程度,但本身僅進行線性運算。
(B) 偏差 (Bias):調整激勵函數的輸入值,幫助模型更好地擬合資料,但也屬於線性項。
(C) 激勵函數(Activation Function):主要負責將線性組合的輸入轉換為非線性輸出,賦予神經網路學習複雜模式與特徵的能力。常見的激勵函數如 ReLU、sigmoid、tanh 等。
(D) 損失函數(Loss Function):用來衡量預測結果與實際答案的差距,指導模型學習方向,與非線性能力無直接關聯。
答案:C
激勵函數(Activation Function)主要負責引入非線性能力,使網路能夠學習複雜的模式。
0
0