最常見的原因:過擬合。
過擬合要說起來還不少,主要包括(深度學習中):
解決辦法有:
這是機器學習中的一個過擬合現象,說明你的模型訓練不夠好,還需要改進。這並不是意味著你的模型預測準確率達到了上限。如果單純在訓練集就達到百分百的準確度完全是有辦法的,畢竟訓練集是已知的,難的就在於如何讓他在測試集依然有較高的預測率。
在機器學習中,過擬合現象並不少見。問題多半出現在模型訓練上,我知道我這樣說很籠統,但是沒辦法,我也不知道具體指的什麼演算法,就只能大致說說。你建模的方式中間會不會出現問題,是否可以加入一些引數進行調節,在你的訓練過程中一點點的進行除錯。
本來機器學習這些都有很多的不確定性。所以要不斷地除錯,要耐住性子。
最常見的原因:過擬合。
過擬合要說起來還不少,主要包括(深度學習中):
資料量小,網路複雜;learning rate 比較高,又沒有設定任何過擬合的機制;解決辦法有:
簡化模型,利用現有深度學習手段增加資料(翻轉、平移、隨機裁剪、imgaug);利用dropout層;利用正則化。這是機器學習中的一個過擬合現象,說明你的模型訓練不夠好,還需要改進。這並不是意味著你的模型預測準確率達到了上限。如果單純在訓練集就達到百分百的準確度完全是有辦法的,畢竟訓練集是已知的,難的就在於如何讓他在測試集依然有較高的預測率。
在機器學習中,過擬合現象並不少見。問題多半出現在模型訓練上,我知道我這樣說很籠統,但是沒辦法,我也不知道具體指的什麼演算法,就只能大致說說。你建模的方式中間會不會出現問題,是否可以加入一些引數進行調節,在你的訓練過程中一點點的進行除錯。
本來機器學習這些都有很多的不確定性。所以要不斷地除錯,要耐住性子。