天天看點

手撕Decision Tree(決策樹:CART-分類與回歸樹 之 回歸樹)模型絕對損失這裡的證明和平方損失的證明一樣。都是對單個節點區域裡的損失進行求導的!!!!⭐ 注:修正一下最後那部分的證明(損失為絕對損失時的證明),直接看下面這個,因為上面我寫錯了一句話。

  • 回歸樹是學習樹類內建模型(e.g. GBDT)的基礎。
  • 最後兩個證明在GBDT裡會用到。
  • CART假設決策樹是二叉樹
手撕Decision Tree(決策樹:CART-分類與回歸樹 之 回歸樹)模型絕對損失這裡的證明和平方損失的證明一樣。都是對單個節點區域裡的損失進行求導的!!!!⭐ 注:修正一下最後那部分的證明(損失為絕對損失時的證明),直接看下面這個,因為上面我寫錯了一句話。
手撕Decision Tree(決策樹:CART-分類與回歸樹 之 回歸樹)模型絕對損失這裡的證明和平方損失的證明一樣。都是對單個節點區域裡的損失進行求導的!!!!⭐ 注:修正一下最後那部分的證明(損失為絕對損失時的證明),直接看下面這個,因為上面我寫錯了一句話。

絕對損失這裡的證明和平方損失的證明一樣。都是對單個節點區域裡的損失進行求導的!!!!

⭐ 注:修正一下最後那部分的證明(損失為絕對損失時的證明),直接看下面這個,因為上面我寫錯了一句話。

  • 絕對損失這裡的證明和平方損失的證明一樣。都是對單個節點區域裡的損失進行求導的!!!!

手撕Decision Tree(決策樹:CART-分類與回歸樹 之 回歸樹)模型絕對損失這裡的證明和平方損失的證明一樣。都是對單個節點區域裡的損失進行求導的!!!!⭐ 注:修正一下最後那部分的證明(損失為絕對損失時的證明),直接看下面這個,因為上面我寫錯了一句話。

繼續閱讀