機器學習的很多演算法都是基礎通用的演算法,比如模型訓練的一些演算法,象聚類分析方法、線性迴歸、支援向量機等。
現在比較廣泛的一種說法是十大演算法:
1.線性迴歸
例如:y = B0 + B1 * x 。我們針對給出的輸入 x 來預測 y。線性迴歸學習演算法的目標是找到 B0 和 B1 的值。
2.邏輯迴歸
與線性迴歸相同。它的目的是找出每個輸入變數的對應引數值。不同的是,預測輸出所用的變換是一個被稱作 logistic 函式的非線性函式
3.線性判別分析
透過計算每個類的判別值,並根據最大值來進行預測。這種方法假設資料服從高斯分佈(鐘形曲線)。所以它可以較好地提前去除離群值。它是針對分類模型預測問題的一種簡單有效的方法。
4.決策樹
樹的葉節點包括用於預測的輸出變數 y。透過樹的各分支到達葉節點,並輸出對應葉節點的分類值
5.貝葉斯方法
6. K 最近鄰演算法
尋找整個訓練集中 K 個最相似的樣本(鄰居),並把這些樣本的輸出變數進行總結
7. 學習向量量化
8.支援向量機
9.Bagging 和隨機森林
10. Boosting 和 AdaBoost
這些基礎算法理論上是可以應用於所有行業的,選擇演算法時需要考慮很多因素:(1)資料的大小,質量和型別;(2)完成計算所需要的時間;(3)任務的緊迫程度;(4)你需要對資料做什麼處理。如何選擇最合適的演算法,需要借用matlab等工具程式設計透過真實資料訓練後才可以。如果僅僅是為了寫一篇論文,不考慮實際的使用效果,網上可以查到很多演算法原理的介紹,重複率不高的情況下,應該可以直接發表。
機器學習的很多演算法都是基礎通用的演算法,比如模型訓練的一些演算法,象聚類分析方法、線性迴歸、支援向量機等。
現在比較廣泛的一種說法是十大演算法:
1.線性迴歸
例如:y = B0 + B1 * x 。我們針對給出的輸入 x 來預測 y。線性迴歸學習演算法的目標是找到 B0 和 B1 的值。
2.邏輯迴歸
與線性迴歸相同。它的目的是找出每個輸入變數的對應引數值。不同的是,預測輸出所用的變換是一個被稱作 logistic 函式的非線性函式
3.線性判別分析
透過計算每個類的判別值,並根據最大值來進行預測。這種方法假設資料服從高斯分佈(鐘形曲線)。所以它可以較好地提前去除離群值。它是針對分類模型預測問題的一種簡單有效的方法。
4.決策樹
樹的葉節點包括用於預測的輸出變數 y。透過樹的各分支到達葉節點,並輸出對應葉節點的分類值
5.貝葉斯方法
6. K 最近鄰演算法
尋找整個訓練集中 K 個最相似的樣本(鄰居),並把這些樣本的輸出變數進行總結
7. 學習向量量化
8.支援向量機
9.Bagging 和隨機森林
10. Boosting 和 AdaBoost
這些基礎算法理論上是可以應用於所有行業的,選擇演算法時需要考慮很多因素:(1)資料的大小,質量和型別;(2)完成計算所需要的時間;(3)任務的緊迫程度;(4)你需要對資料做什麼處理。如何選擇最合適的演算法,需要借用matlab等工具程式設計透過真實資料訓練後才可以。如果僅僅是為了寫一篇論文,不考慮實際的使用效果,網上可以查到很多演算法原理的介紹,重複率不高的情況下,應該可以直接發表。