-
1 # 茜汐汐
-
2 # 使用者1491321109761
R方也叫決定係數,它的主要作用是衡量資料中的因變數有多準確可以被某一模型所計算解釋。
公式:
離差平方和:代表因變數的波動,即因變數實際值與其平均值之間的差值平方和。
誤差平方和:代表因變數實際值與模型擬合值之間的誤差大小。
故R方可以解釋因變數波動中,被模型擬合的百分比,即R方可以衡量模型擬合數據的好壞程度;R方的取值範圍<=1,R方越大,模型對資料的擬合程度越好。
使用不同模型擬合自變數與因變數之間關係的R方舉例:
R方=1 模型完美的擬合數據(100%)
R方=0.91 模型在一定程度較好的擬合數據(91%)
R方<0 擬合直線的趨勢與真實因變數相反
調整R方(適用多元線性迴歸):
一般的R方會存在一些問題,即把任意新的自變數加入到線性模型中,都可能會提升R方的值,模型會因加入無價值的變數導致R方提升,對最終結果產生誤導。
故在建立多元線性迴歸模型時,我們把R方稍稍做一些調整,引進資料量、自變數個數這兩個條件,輔助調整R方的取值,我們把它叫調整R方;調整R方值會因為自變數個數的增加而降低(懲罰),會因為新自變數帶來的有價值資訊而增加(獎勵);可以幫助我們篩選出更多有價值的新自變數。
n:資料量大小(行數)->資料量越大,新自變數加入所影響越小;
p:自變數個數->自變數個數增加,調整R方變小,對這個量進行懲罰;
一句話,調整R方不會因為模型新增無價值變數而提升,而R方會因為模型新增無價值變數而提升!透過觀測調整R方可以在後續建模中去重多重共線性的干擾,幫助我們選擇最優自變數組合。
-
3 # 使用者6465485837906
當我開始我的資料科學之旅時,我探索的第一個演算法是線性迴歸。
在理解了線性迴歸的概念和演算法的工作原理之後,我非常興奮地使用它並在問題陳述中做出預測。我相信你們大多數人也會這麼做的。但是一旦我們建立了模型,下一步是什麼呢?
接下來是棘手的部分。一旦我們建立了模型,下一步就是評估它的效能。毋庸置疑,模型評價是一項關鍵性的任務,它凸顯了模型的不足。
選擇最合適的評價指標是一個關鍵的任務。而且,我遇到了兩個重要的指標:除了MAE/MSE/RMSE,有R方和調整R方。這兩者有什麼區別?我應該用哪一個?
R方和調整R方是兩個評估指標,對於任何一個數據科學的追求者來說,這兩個指標可能會讓他們感到困惑。
它們對評估迴歸問題都非常重要,我們將深入瞭解和比較它們。它們各有利弊,我們將在本文中詳細討論。
回覆列表
R是指擬合優度,是迴歸直線對觀測值的擬合程度。 表示式:R2=SSR/SST=1-SSE/SST 其中:SST=SSR+SSE,SST(total sum