回覆列表
  • 1 # 使用者2650670766656

    目標函式,或稱損失函式,是網路中的效能函式,也是編譯一個模型必須的兩個引數之一。由於損失函式種類眾多,下面以keras官網手冊的為例。

    在官方keras.io裡面,有如下資料:

    mean_squared_error或mse

    mean_absolute_error或mae

    mean_absolute_percentage_error或mape

    mean_squared_logarithmic_error或msle

    squared_hinge

    hinge

    binary_crossentropy(亦稱作對數損失,logloss)

    categorical_crossentropy:亦稱作多類的對數損失,注意使用該目標函式時,需要將標籤轉化為形如(nb_samples, nb_classes)的二值序列

    sparse_categorical_crossentrop:如上,但接受稀疏標籤。注意,使用該函式時仍然需要你的標籤與輸出值的維度相同,你可能需要在標籤資料上增加一個維度:np.expand_dims(y,-1)

    kullback_leibler_divergence:從預測值機率分佈Q到真值機率分佈P的資訊增益,用以度量兩個分佈的差異.

    cosine_proximity:即預測值與真實標籤的餘弦距離平均值的相反數

  • 中秋節和大豐收的關聯?
  • 我的電腦有個WPS推廣小程式幹什麼用的?