回覆列表
  • 1 # Kobe096

    影象分類演算法是機器學習領域中的一類,主要的分類演算法包括傳統和深度兩大類,那麼我們來說說各自都有哪些分類演算法吧。

    首先傳統機器學習分類演算法包括:

    1. 最近鄰(KNN) 它的主要思想是人工選取分類類別數,在利用測試樣本的各個特徵與原始樣本的各個特徵的歐式距離得到一個結果值,最後在一定範圍內統計所有結果值,找出最多類的類別作為測試樣本的類別。

    優點: 樣本無需訓練,好理解,對大體量 資料分類效果較好

    缺點: 誤差很難控制,對於小樣本準確率較低,計算量較大

    2. 樸素貝葉斯 它是利用樣本的一定先驗知識,通過後驗機率的統計來得出測試樣本屬於某一類的機率。

    優點: 訓練樣本在較少情況下就可以達到效果

    缺點: 需要先驗知識,往往出現過擬合

    3. 決策樹 它是利用屬性結構不斷進行分支處理,進而從樹根一直到樹枝進行判斷有無(二分類)來得到最終的分類結果。

    優點: 處理速度塊,好理解

    缺點: 分類準確率不高

    4. 支援向量機(SVM) 透過構建分類超平面將兩類樣本區分開,進而對測試樣本提取到的特徵進行分類。它後期延展到高維,透過選取基函式來進行多分類。

    優點: 分類準確率較高

    缺點: 不好理解,最佳化較難

    5. 經典BP神經網路 它的拓撲結構與現在的深層神經網路沒有大的區別,主要是輸入、隱藏和輸出層,對訓練資料透過不斷的反向傳播調整特徵權重來達到收斂的目的,最終使用訓練模型進行測試樣本分類。

    優點: 分類準確率較高

    缺點: 引數較多,最佳化複雜

    再簡單探討深度學習分類演算法,深度學習中經典的minist資料集就是用於分類的經典資料集。我們可以構建基礎的神經網路,透過卷積提取特徵,再利用池化較少計算複雜度,最後利用全連線層對特徵進行展開,並利用sigmoid等函式得到各個分類的機率,找到最大機率對應的類別,即為測試樣本的類別。

    優點: 實用性較強,具有泛化能力,準確率較高

    缺點: 引數太多,最佳化難度較大

    總結一下,分類演算法分為傳統機器學習方法和現代深度學習方法,根據你的樣本數量及運算效能和精確程度、速度的要求選擇不同的分類方法。

  • 中秋節和大豐收的關聯?
  • 有沒有姓泰的?