首頁>技術>

為了使資料科學家成功地應用深度學習,他們必須首先了解如何應用建模數學,選擇正確的演算法以使模型適合資料,並提出正確的實施技術。

為了讓您入門,我們提供了每位資料科學專業人員所需的深度學習演算法列表。

1.成本函式

神經網路中使用的成本函式幾乎與任何其他機器學習模型中使用的成本函式相似。這有助於確定神經網路與其預測值相比(與實際值相比)有多好。

簡而言之,成本函式與模型的質量成反比。例如,機器學習模型的質量越好,成本函式就越低,反之亦然。

成本函式的主要意義是獲得正確的最佳化值。當神經網路的成本函式最小化時,您可以輕鬆實現模型的最佳引數和權重。透過這種方式,您可以擴充套件其效能。

一些最常見的成本函式包括指數成本,Kullback-Leibler散度,交叉熵成本,Hellinger距離和二次成本。

2.啟用功能

作為資料科學專業人員,您需要了解神經網路的基礎知識以及它們的功能。一旦您對節點和神經元有了深入的瞭解,就不容易理解啟用。瞭解啟用就像按下電燈開關一樣簡單,它有助於確定是否需要啟用神經元。

儘管您可能會找到多個可用的啟用功能,但是最常見的啟用功能之一是“整流線性單元功能”。另外,稱為ReLu功能,此功能可加速梯度下降,從而使其更快。

3.遞迴神經網路(RNN)

顧名思義,RNN非常適合順序資料。為什麼?因為它可以攝取大小不同的輸入。

RNN同時考慮給定的當前輸入和給定的先前輸入。這意味著即使輸入相同,相同的輸入也可以產生不同的輸出。

用技術術語來說,RNN被定義為具有連線的神經網路型別,該連線在整個時間序列上進一步形成有向圖。這種連線需要在節點之間發生,從而進一步允許利用內部儲存器並處理輸入的可變長度序列。

RNN非常適合時間序列資料或順序資料。

4.反向傳播

反向傳播與成本函式緊密同步。該演算法專門用於計算成本函式的梯度。由於其速度和效率,與其他方法相比,反向傳播設法獲得了很大的普及。

反向傳播的工作原理如下:

計算單個輸入和輸出對的正向相位計算每個對的反向相位兩種漸變相結合 權重的更新是根據總梯度和學習率來完成的 5.長短期記憶體網路(LSTM)

LSTM網路屬於RNN(遞迴神經網路)類別。LSTM用於解決常規RNN具有短時記憶的缺點。

更重要的是,如果序列中的滯後大於5到10個步驟,則RNN通常會忽略前面步驟中提供的任何資訊。

例如,如果您已將類似段落的資訊輸入到RNN中,則該資訊可能與段落開頭給出的資訊不同。因此,使LSTM成為解決此類問題的更好選擇。

您會發現資料科學提供了無窮無盡的資訊,但是,每位資料科學家都必須具備在機器學習和深度學習等領域的廣泛知識。在線上有多個資料科學證書計劃,可以教您機器學習的基礎知識。您可以抓住任何符合您要求的人,然後開始學習之旅。

6.卷積神經網路(CNN)

CNN通常會選擇一個影象輸入,分配影象的重要特徵,然後進行預測。CNN比前饋神經網路要好得多,這是因為CNN從影象中捕獲了空間依賴性。簡而言之,CNN比其他任何神經網路都更瞭解影象的組成。

具體而言,CNN用於對影象進行分類。

7.超引數

這些變數有助於調節網路結構,從而控制網路的訓練方式。一些常見的超引數是–學習率(alpha),批處理大小,時期數,網路權重初始化以及模型架構(如許多隱藏單元或層數)。

8.批次和隨機梯度下降

兩種方法都用於計算梯度。

批梯度下降用於計算完整的資料集,而隨機梯度下降一次僅計算單個樣本。

因此,批次梯度下降法非常適合凸或光滑流形,而隨機梯度下降法則計算速度更快且價格便宜,因此非常適合。

簡而言之

深度學習對資料科學產生了更大的影響。深度學習在很大程度上受到AI的影響,它使用大量不受監督的資料來提取任何複雜的表示形式。因此,即使在最困難的情況下,它也有助於觀察,分析,學習和制定決策。

8
最新評論
  • BSA-TRITC(10mg/ml) TRITC-BSA 牛血清白蛋白改性標記羅丹明
  • vue-03 計算屬性和監聽器