4. 下列有關神經網路的敘述何者正確?
(1) 神經網路函數學習機輸出的答案和正確答案的差距,可以使用損失函數(loss function)來計算。
(2) 為了要找出損失函數最小值的參數,須往梯度的相同方向走,這種方式稱為梯度下降法(Gradient Descent)。
(3) 神經網路調整參數的順序是由後面一層一層往前調,故稱為順向傳播法(Forward Propagation)。
(4) 學習率(Learning rate)的設定對找出神經網路參數的結果並沒有影響。
(A) 1
(B) 12
(C) 123
(D) 1234
答案:登入後查看
統計: A(16), B(17), C(8), D(4), E(0) #3097770
統計: A(16), B(17), C(8), D(4), E(0) #3097770
詳解 (共 2 筆)
#6456551
讓我們先逐一分析每個敘述:
(1) 神經網路函數學習機輸出的答案和正確答案的差距,可以使用損失函數(loss function)來計算。
- 正確。損失函數(Loss Function)或成本函數(Cost Function)正是用來衡量神經網路模型的預測輸出與真實標籤之間的差異。損失值越小,表示模型的預測越接近真實值。
(2) 為了要找出損失函數最小值的參數,須往梯度的相同方向走,這種方式稱為梯度下降法(Gradient Descent)。
- 不正確。梯度(Gradient)指向函數值增長最快的方向。為了找到損失函數的最小值,我們需要沿著梯度的反方向移動。這就是梯度下降法(Gradient Descent)的核心思想:朝著坡度最陡峭的「下坡」方向走。
(3) 神經網路調整參數的順序是由後面一層一層往前調,故稱為順向傳播法(Forward Propagation)。
- 不正確。
- **順向傳播(Forward Propagation)**是將輸入資料從輸入層經過隱藏層,最終到達輸出層的過程,計算出模型的預測輸出。
- **反向傳播(Backpropagation)**才是神經網路調整參數(權重和偏差)的過程。它從輸出層開始,將損失的梯度反向傳播回前面的層,並根據這些梯度來更新參數。因此,參數調整的順序是由後面一層一層往前調,這是反向傳播的特點,而非順向傳播。
(4) 學習率(Learning rate)的設定對找出神經網路參數的結果並沒有影響。
- 不正確。學習率(Learning Rate)是梯度下降法中的一個超參數,它決定了每次參數更新時邁出的步長。
- 如果學習率太高,模型可能會跳過最小值,導致訓練不穩定甚至發散。
- 如果學習率太低,模型收斂速度會非常慢,需要很長時間才能找到最小值。
- 因此,學習率的設定對模型能否有效收斂、收斂速度以及最終找到的參數結果(是否是最佳解)有非常顯著的影響。
綜合以上分析,只有敘述 (1) 是正確的。
The final answer is A
0
0