首頁>技術>

GBDT(Gradient Boosting Decision Tree)是被工業界廣泛使用的機器學習演算法之一,它既可以解決迴歸問題,又可以應用在分類場景中,該演算法由斯坦福統計學教授 Jerome H. Friedman 在 1999 年發表。本文中,我們主要學習 GBDT 的迴歸部分。

在學習 GBDT 之前,你需要對 CART、AdaBoost 決策樹有所瞭解,和 AdaBoost 類似,GBDT 也是一種 Boosting 型別的決策樹,即在演算法產生的眾多樹中,前一棵樹的錯誤決定了後一棵樹的生成。

我們先從最為簡單的例子開始,一起來學習 GBDT 是如何構造的,然後結合理論知識,對演算法的每個細節進行剖析,力求由淺入深的掌握該演算法。

我們的極簡資料集由以下: 3 條資料構成,使用它們來介紹 GBDT 的原理是再好不過了,假設我們用這些資料來構造一個 GBDT 模型,該模型的功能是:透過身高、顏色喜好、性別這 3 個特徵來預測體重,很明顯這是一個迴歸問題。

構造 GBDT 決策樹

GBDT 只有第一棵樹只有 1 個葉子節點,該節點為所有樣本的初始預測值,且該值到所有樣本間的 MSE(Mean Squared Error)是最小的。實際上,初始值就是所有樣本的平均值,即 (88+76+56)/3 = 73.3,原因我們在下文會詳細介紹。

接下來,根據預測值,我們算出每個樣本的殘差(Residual),如第一個樣本的殘差為:88 - 73.3 = 14.7,所有樣本的殘差如下:

接著,我們以殘差為目標值來構建一棵決策樹,構造方式同 CART 決策樹,這裡你可能會問到為什麼要預測殘差?原因我們馬上就會知道,產生的數如下:

因為我們只有 3 個樣本,且為了保留演算法的細節,這裡只用了 2 個葉子節點,但實際工作中,GBDT 的葉子節點通常在 8-32 個之間。

然後我們要處理有多個預測值的葉子節點,取它們的平均值作為該節點的輸出,如下:

上面這棵樹便是第 2 棵樹,聰明的你一定發現了,第 2 棵樹實際上是第 1 棵樹和樣本之間的誤差,我們拿第 3 個樣本作為例子,第一棵樹對該樣本的預測值為 73.3,此時它和目標值 56 之間的誤差為 -17.3,把該樣本輸入到第 2 棵樹,由於她的身高值為 1.5,小於 1.55,她將被預測為 -17.3。

既然後一棵樹的輸出是前一棵樹的誤差,那隻要把所有的樹都加起來,是不是就可以對前面樹的錯誤做出補償,從而達到逼近真實值的目的呢。這就是我們為什麼以殘差建樹的原因。

當然樹之間不會直接相加,而是在求和之前,乘上一個學習率,如 0.1,這樣我們每次都可以在正確的方向上,把誤差縮小一點點。Jerome Friedman 也說過這麼做有助於提升模型的泛化能力(low variance)。

整個過程有點像梯度下降,這應該也是 GBDT 中 Gradient 的來歷。GBDT 預測過程如下圖所示:

按此方法更新上述 3 個樣本的預測值和殘差,如下:

比較這兩棵樹的殘差:

可見,透過 2 棵樹預測的樣本比只用 1 棵樹更接近目標值。接下來,我們再使用第 2 棵樹的殘差來構建第 3 棵樹,用第 3 棵樹的殘差來構建第 4 棵樹,如此迴圈下去,直到樹的棵數滿足預設條件,或總殘差小於一定閾值為止。以上,就是 GBDT 迴歸樹的原理。

深入 GBDT 演算法細節

GBDT 從名字上給人一種不明覺厲的印象,但從上文可以看出,它的思想還是非常直觀的。對於只想瞭解其原理的同學,至此已經足夠了,想學習更多細節的同學,可以繼續往下閱讀。

初始化模型

該演算法主要分為兩個步驟,第一步為初始化模型:

上式中,$F$ 表示模型,$F_0$ 即模型初始狀態;L 為 Loss Function,n 為訓練樣本的個數,$y_i$ 為樣本 i 的目標值,gamma 為初始化的預測值,意為找一個 gamma,能使所有樣本的 Loss 最小。

前文提過,GBDT 迴歸演算法使用 MSE 作為其 Loss,即:

公式中 $\hat{y_i}$ 表示第 i 個樣本的預測值,我們把例子中的 3 個樣本帶入 $F_0$ 中,得:

要找到一個 gamma,使上式最小,因為上式是一個拋物線,那麼 $d(F_0)/d\gamma=0$ 時,上式有最小值,於是:

上式化簡後,你一眼就可以看出 gamma = (88+76+56)/3 = 73.3,即初始值就是所有樣本的平均值

模型迭代

演算法的第二個步驟是一個迴圈,虛擬碼如下:

for m = 1 to M:    (A)    (B)    (C)    (D)

其中,m 表示樹的序號,M 為樹的總個數(通常該值設為 100 或更多),(A) (B) (C) (D) 代表每次迴圈中的 4 個子步驟,我們先來看 (A)

(A) 計算

我們把 $F(x_i)$ 換成 $\hat{y_i}$,該式子其實是對 Loss 秋 $\hat{y_i}$ 的偏微分,該偏微分為:

而 $F(x)=F_{m-1}(x)$ 意為使用上一個模型來計算 $\hat{y_i}$,即用 m-1 棵已生成的樹來預測每一個樣本,那麼 $r_{im} = y_i-\hat{y_i}$ 就是上面說的計算殘差這一步。

(B) 使用迴歸決策樹來擬合殘差 $r_{im}$,樹的葉子節點標記為 $R_{jm}$,其中 j 表示第 j 個葉子節點,m 表示第 m 棵樹。該步驟的細節如果不清楚可以檢視 CART 迴歸樹一文。

(C) 對每個葉子節點,計算

上面式子雖然較為複雜,但它和初始化步驟中的式子的目的是一樣的,即在每個葉子節點中,找到一個輸出值 gamma,使得整個葉子節點的 Loss 最小。

$\gamma_{jm}$ 為第 m 棵樹中,第 j 個葉子節點的輸出,$\sum_{x_i \in R_{ij}}L$ 表示在第 j 個葉子節點中所有樣本的 Loss,如下面的樹中,左邊葉子節點上有 1 個樣本,而右邊葉子節點內有 2 個樣本,我們希望根據這些樣本來求得對應葉子的唯一輸出,而 Loss 最小化就是解決之道。

在 Loss 函式中,第 2 個引數 $F_{m-1}(x_i) + \gamma$ 是模型對樣本 i 的預測,再加上 $\gamma$,對於只有 1 個樣本的葉子節點來說,$\gamma$ 就是該樣本殘差,而對於有多個樣本的節點來說,$\gamma$ 為能使 Loss 最小的那個值,下面就這兩種情況分別說明:

以上面這棵樹為例,左邊葉子節點只有 1 個樣本,即樣本 3,將它帶入到公式中:

要求右邊的式子最小,和上面一樣,我們令其導數為 0:

算得 $\gamma_{11} = -17.3$,所以當葉子中只有 1 個樣本時,該葉子的輸出就是其殘差。

再來看下右邊這個節點,其中包含 2 個樣本,同樣把樣本 1 和樣本 2 帶入到公式中,得:

對右邊求導:

上式為 0 時,Loss 最小,即

於是

可見,當葉子中有多個樣本時,該葉子的輸出值就是所有樣本殘差的平均值。

(D) 更新模型,下次迭代中使用 m 棵樹來做預測:

上式中,$\nu$ 表示學習率。之後,訓練將重新來到 (A) 步驟,進入下一棵樹構建的迴圈中。

總結

本文我們一起學習了 GBDT 的迴歸演算法,一開始,透過一個簡單的例子描述了 GBDT 的原理,之後,我們對 GBDT 的每個步驟進行了逐一剖析,希望本文能給你帶來收穫。

25
  • BSA-TRITC(10mg/ml) TRITC-BSA 牛血清白蛋白改性標記羅丹明
  • ApplicationContext介面例項