天天看點

2.2代價函數

作者:羽翼憶清風

什麼是代價函數?

2.2代價函數

通義千問的回答:

2.2代價函數

文心一言的回答:

訊飛星火認知大模型的回答:

2.2代價函數

模型:f(x)=wx+b,w和b可以稱為權重或者系數,在機器學習中,這兩個參數是可以在訓練期間調整以改進模型的變量。

2.2代價函數

圖上有4個點,A點(1,2),B點(2,2),C點(3,3),D點(4,5)

模型需要預測數與坐标軸上的數無限接近,越接近則證明預測的越準确。如下:

2.2代價函數
2.2代價函數

y^(此處符号應該在y正上方,輸入法打不出來。。)

A點的假設函數對應的評估值為w*1+b,y的真實值為2

B點的假設函數對應的評估值為w*2+b,y的真實值為2

C點的假設函數對應的評估值為w*3+b,y的真實值為3

D點的假設函數對應的評估值為w*4+b,y的真實值為5

這裡需要預估值與真實值越接近越好,證明預測的越準确。

簡單處理,設b為0:

假設w為0,則 J(0)=1/8[(0-2)^2+(0-2)^2+(0-3)^2+(0-5)^2]=20.125

假設w為1,則 J(1)=1/8[(1-2)^2+(1-2)^2+(1-3)^2+(1-5)^2]=2.75

假設w為2,則 J(2)=1/8[(2-2)^2+(4-2)^2+(6-3)^2+(8-5)^2]=4.75

即求J最小:

2.2代價函數

實際上求J是這樣的,

2.2代價函數
2.2代價函數

非常複雜,手動嘗試w和b的值非常困難,你真正想要的是一種高效的算法,可以用代碼編寫來自動找到參數w和b的值,這個算法稱為梯度下降,下一節學習梯度下降。

如果您發現本文中有錯誤或者不足之處,請在文末留言,我會非常感謝您提供的建議。