回覆列表
  • 1 # lanfengz3

    1. Logistic迴歸簡介

    Logistic迴歸:主要用於因變數為分類變數(如疾病的緩解、不緩解,評比中的好、中、差等)的迴歸分析,自變數可以為分類變數,也可以為連續變數。因變數為二分類的稱為二項logistic迴歸,因變數為多分類的稱為多元logistic迴歸。

    Odds:稱為比值、比數,是指某事件發生的可能性(機率)與不發生的可能性(機率)之比。

    OR(Odds Ratio):比值比,優勢比。

    2.SPSS中做Logistic迴歸的操作步驟

    分析>迴歸>二元Logistic迴歸

    選擇因變數和自變數(協變數)

    3.結果怎麼看

    一些指標和資料怎麼看

    “EXP(B)”即為相應變數的OR值(又叫優勢比,比值比),為在其他條件不變的情況下,自變數每改變1個單位,事件的發生比“Odds”的變化率。

    偽決定係數cox & Snell R2和Nagelkerke R2,這兩個指標從不同角度反映了當前模型中自變數解釋了因變數的變異佔因變數總變異的比例。但對於Logistic迴歸而言,通常看到的偽決定係數的大小不像線性迴歸模型中的決定係數那麼大。

    預測結果列聯表解釋,看”分類表“中的資料,提供了2類樣本的預測正確率和總的正確率。

    建立Logistic迴歸方程

    logit(P)=β-0+β1*X1+β2*X2+……+βm*Xm

    4.自變數的篩選方法和逐步迴歸

    與線性迴歸類似,在Logistic迴歸中應儘量納入對因變數有影響作用的變數,而將對因變數沒有影響或影響較小的變數排除在模型之外。

    ①.Wald檢驗:Wals是一個統計量,用檢驗自變數對因變數是否有影響的。它越大,或者說它對應的sig越小,則影響越顯著。

    ②.似然比檢驗(Likelihood Ratio

    Test):Logistic模型的估計一般是使用極大似然法,即使得模型的似然函式L達到最大值。-2lnL被稱為Diviance,記為D。L越大,則D越大,模型預測效果越好。似然比檢驗是透過比較是否包含某個或幾個引數β的多個模型的D值。

    以上三種假設檢驗中,似然比檢驗是基於整個模型的擬合情況進行的,結果最為可靠;比分檢驗結果一般與似然比檢驗結果一致。最差的就是Wald檢驗,它考慮各因素的綜合作用,當因素間存在共線性的時候,結果不可靠。故在篩選變數時,用Wald法應慎重。

    SPSS中提供了六種自變數的篩選方法,向前法(Forward)和向後法(Backward)分別有三種。基於條件引數估計和偏最大似然估計的篩選方法都比較可靠,尤以後者為佳。但基於Wald統計量的檢驗則不然,它實際上未考慮各因素的綜合作用,當因素間存在共線性時,結果不可靠,故應當慎用。

    5.模型效果的判斷指標

    ①.對數似然值與偽決定係數

    Logistic模型是透過極大似然法求解的,極大似然值實際上也是一個機率,取值在0~1之間。取值為1,代表模型達到完美,此時其對數值為0;似然值越小,則其對數值越負,因此-2倍的對數似然值就可以用來表示模型的擬合效果,其值越小,越接近於0,說明模型擬合效果越好。

    ②.模型預測正確率

    對因變數結局預測的準確程度也可以反映模型的效果,SPSS在Logistic迴歸過程中會輸出包含預測分類結果與原始資料分類結果的列聯表,預設是按照機率是否大於0.5進行分割。

    ROC曲線即受試者工作特徵曲線(Receiver

    Operating Characteristic Curve),或譯作接受者操作特徵曲線。它是一種廣泛應用的資料統計方法,1950年應用於雷達訊號檢測的分析,用於區別“噪聲”與“訊號”。在對Logistic迴歸模型擬合效果進行判斷時,透過ROC曲線可直接使用模型預測機率進行。應用ROC曲線可幫助研究者確定合理的預測機率分類點,即將預測機率大於(或小於)多少的研究物件判斷為陽性結果(或陰性結果)。ROC曲線,預測效果最佳時,曲線應該是從左下角垂直上升至頂,然後水平方向向右延伸到右上角。如果ROC曲線沿著主對角線方向分佈,表示分類是機遇造成的,正確分類和錯分的機率各為50%,此時該診斷方法完全無效。

  • 中秋節和大豐收的關聯?
  • 蘋果升級ios系統後能把原來的版本還原嗎?