回覆列表
  • 1 # 阿朱哇呀呀

    最常見的原因:過擬合

    過擬合要說起來還不少,主要包括(深度學習中):

    資料量小,網路複雜;learning rate 比較高,又沒有設定任何過擬合的機制;

    解決辦法有:

    簡化模型,利用現有深度學習手段增加資料(翻轉、平移、隨機裁剪、imgaug);利用dropout層;利用正則化。

    這是機器學習中的一個過擬合現象,說明你的模型訓練不夠好,還需要改進。這並不是意味著你的模型預測準確率達到了上限。如果單純在訓練集就達到百分百的準確度完全是有辦法的,畢竟訓練集是已知的,難的就在於如何讓他在測試集依然有較高的預測率。

    在機器學習中,過擬合現象並不少見。問題多半出現在模型訓練上,我知道我這樣說很籠統,但是沒辦法,我也不知道具體指的什麼演算法,就只能大致說說。你建模的方式中間會不會出現問題,是否可以加入一些引數進行調節,在你的訓練過程中一點點的進行除錯。

    本來機器學習這些都有很多的不確定性。所以要不斷地除錯,要耐住性子。

  • 中秋節和大豐收的關聯?
  • 木蘭詩的節奏劃分?誰有啊?