回覆列表
  • 1 # 我是蛋卷

    這個不能一概論之的。

    1.過擬合也分多種情況,1種是現在就這麼多情況,這個神經網路已經能對這麼多情況都給出正確答案了,那麼就算過擬合了,你也是沒辦法證明的,另外即然能工作,能窮盡,也不存在壞處。

    2.是不是過擬合,和我們的神經網路模型和訓練集有關係,當二個的組合真的過擬合了,在訓練集上過工作的很好,在驗證集上就會出問題。現在有一些對訓練集的資料進行各種預處理的方式後,多次輸入,多次訓練。

    3.過擬合這個問題目前來看,無法避免,訓練本身就是某種擬合的過程。如果將來在這個方面的數學原理或是使用上有質的突破,可能就會有機會解決。

  • 2 # 人工智慧學術前沿

    首先,過擬合定義。

    透過模型或者理解為函式,去擬合(表徵)資料的過程就是擬合的的過程。

    形象的理解,平面座標系裡有很多點,找一根線(函式)來表示這些點的規律的過程就是擬合。

    Y=aX + b

    (x , y )是已知樣本點

    ( x , ?)是目標未知的樣本點

    訓練模型或者找函式的過程就是找合適的a,b兩個引數的過程。

    透過擬合好的高數,我們來預測未來的資料,當函式在已知的訓練樣本上擬合這些樣本點,擬合的很好,在未知的測試樣本上進行預測時,擬合的結果卻很差,即模型(函式)出現了過擬合現象。

    回答題目。

    對已知的訓練資料,模型越擬合精度越高,函式繪製的線描點描的越準確,這是必然。深度神經網路模型是否過擬合,要看模型在未知的測評資料集上表現出來的效能好壞。

  • 中秋節和大豐收的關聯?
  • 愛迪生燈泡發明動畫故事?