首頁>Club>
什麼時候比較適合用嶺迴歸?
5
回覆列表
  • 1 # IT老友

    兩者的區別在於損失函式不同。

    1. 最小二乘法採用的損失函式是均方誤差(又稱平方損失):

    數學公式是:

    2.嶺迴歸的損失函式為平方損失 + 所有權重平方和的平均值 * λ / 2 , λ>0

    右邊項有些寫成λ(由於n是常數, λ是設定的引數,因此 λ / 2n 和 λ等同)。

    什麼是L2正則化(又稱L2範數)?

    這裡簡單說說,L2正則化簡單來說就是約束條件。

    目的是為了降低模型複雜度,防止過擬合,提高模型泛化能力。

    詳細請檢視個人《一看就懂】機器學習之L1和L2正則化》。

    3. 什麼時候比較適合用嶺迴歸?

    機器學習中,損失最小值時,權重為最優解。

    嶺迴歸,相當於每次移除權重的 x%,這使得迴歸線更平滑。

    對於下圖

    對上圖右邊進行變換:

    X2 = X1^2意味著特徵X2與X1相關,其它特徵類似。

    可見,特徵之間相關性越強,嶺迴歸就越能降低模型的複雜度。

    如果特徵之間相互獨立,顯然沒有必要應用嶺迴歸。

  • 中秋節和大豐收的關聯?
  • 有什麼方法可以快速減肥?