回覆列表
-
1 # 我是蛋卷
-
2 # 人工智慧學術前沿
首先,過擬合定義。
透過模型或者理解為函式,去擬合(表徵)資料的過程就是擬合的的過程。
形象的理解,平面座標系裡有很多點,找一根線(函式)來表示這些點的規律的過程就是擬合。
Y=aX + b
(x , y )是已知樣本點
( x , ?)是目標未知的樣本點
訓練模型或者找函式的過程就是找合適的a,b兩個引數的過程。
透過擬合好的高數,我們來預測未來的資料,當函式在已知的訓練樣本上擬合這些樣本點,擬合的很好,在未知的測試樣本上進行預測時,擬合的結果卻很差,即模型(函式)出現了過擬合現象。
回答題目。
對已知的訓練資料,模型越擬合精度越高,函式繪製的線描點描的越準確,這是必然。深度神經網路模型是否過擬合,要看模型在未知的測評資料集上表現出來的效能好壞。
這個不能一概論之的。
1.過擬合也分多種情況,1種是現在就這麼多情況,這個神經網路已經能對這麼多情況都給出正確答案了,那麼就算過擬合了,你也是沒辦法證明的,另外即然能工作,能窮盡,也不存在壞處。
2.是不是過擬合,和我們的神經網路模型和訓練集有關係,當二個的組合真的過擬合了,在訓練集上過工作的很好,在驗證集上就會出問題。現在有一些對訓練集的資料進行各種預處理的方式後,多次輸入,多次訓練。
3.過擬合這個問題目前來看,無法避免,訓練本身就是某種擬合的過程。如果將來在這個方面的數學原理或是使用上有質的突破,可能就會有機會解決。