回覆列表
  • 1 # 北航秦曾昌

    1.樸素貝葉斯分類(Naive Bayes)

    樸素貝葉斯分類實際上是計算在B發生的前提下,A發生的機率P(A|B),即計算條件機率。該演算法的優點是對缺失資料並不敏感,但缺點是其前提假設不同屬性之間相互獨立,但這一點很難滿足。它常常被用在垃圾郵件分類過濾中。

    其正式定義為:

    2.支援向量機(Support Vector Machine, SVM)

    支援向量機是監督學習的一種,它將向量對映到更高維的空間中,在其中建立有最大間隔的超平面以分開資料,並在其兩側建立兩個相互平行的超平面,並以使這兩個平面距離最大化為目標(即距離越大,模型總誤差越小)。其求解實際上是先匯出0.5*||w||^2,然後使用拉格朗日函式,最終將求f(x)=wx+b的最最佳化轉為w,b兩者的最最佳化。該演算法在非線性問題上往往表現優秀。

    3.K鄰近(K-Nearest Neighbor)。

    KNN演算法的思路是,在特徵空間中,如果一個樣本k個最鄰近(即最相似)的樣本大部分屬於某一類,那麼該樣本也屬於此類。該演算法一般被應用於分類稀有事件,並且在多分類問題上比SVM表現更好。

    4.邏輯斯諦迴歸(Logistic regression)

    邏輯斯諦迴歸應用於二項分佈問題,其優點是速度快,並且可以看到各個特徵的權重。

    其h函式為:

    其損失函式為:

    5.神經網路(Neural networks)

    神經網路中現在最常用的是BP(Back Propagation)演算法,其組成包裹輸入層,隱藏層和輸出層。該模型利用反向傳播不斷最佳化模型的權值和閾值。

  • 中秋節和大豐收的關聯?
  • 你如何理解transformer模型?