天天看點

李宏毅機器學習筆記1:Regression損失函數梯度下降Generalization

損失函數

李宏毅機器學習筆記1:Regression損失函數梯度下降Generalization

梯度下降

  1. 随機初始化起始位w0
  2. 在w0處對損失函數求導(偏導)
  3. w1=w0-學習率*w0處的倒數
  4. 一直重複計算,直到導數為0,或者達到最大疊代次數。
李宏毅機器學習筆記1:Regression損失函數梯度下降Generalization

Generalization

  • 泛化 (generalization) 是指神經網絡對未在訓練 (學習) 過程中遇到的資料可以得到合理的輸出。
  • 使真實資料的誤差更小。
  • 一個更複雜的模型可以使訓練集上的誤差更小,但是不一定能使測試集上的誤差也更小(過泛化)
李宏毅機器學習筆記1:Regression損失函數梯度下降Generalization
李宏毅機器學習筆記1:Regression損失函數梯度下降Generalization
李宏毅機器學習筆記1:Regression損失函數梯度下降Generalization
  • 損失函數+很小的wi,可以使預測的函數曲線更加平滑。
  • 多平滑?𝜆的選擇。
  • 𝜆越大,越平滑,在訓練集上的誤差越小。
  • 不能太過平滑。

考慮更多參數的模型

  • 訓示函數:取真為1,假為0.
    李宏毅機器學習筆記1:Regression損失函數梯度下降Generalization

繼續閱讀