回覆列表
  • 1 # 繁星落石

    卷積神經網路就是透過卷積操作,使用卷積核來減少傳遞引數的數量,即便如此,對於尺寸比較大的圖片來說,或者對於比較小的系統來說,這個引數數量還是頗多。

    其實CNN的網路結構十分簡單和直觀,想要透過改變網路結構,依然保持CNN的特性又可以壓縮引數數量的話,比較難以實現。不過透過其他網路結構倒是可以壓縮一部分引數,比如Capsule Network。

  • 2 # zagsoft

    謝邀,卷積神經網路作為一種前饋神經網路,其神經元可以響應一部分覆蓋範圍內的周圍單元,主要用於處理大型影象。 在結構中包括卷積層和池化層。其在組合過程中,元素的數量會逐層遞減,但隨著運算單元的增多,其運算引數數量也會增多,畢竟運算引數的數量決定了其感知能力,所以壓縮起來的難度相對較大,為了保證計算的正確性,對於運算引數的壓縮只能壓縮一部分引數,但也有限。個人理解,有誤勿噴。

  • 3 # joy0123

    目前透過改變卷積網路結構效果比較好的,有三種方式,分別為模型蒸餾、可分離卷積、組卷積方式。模型蒸餾的方式相當於模型壓縮,即先訓練完成一個大的模型,然後用訓練完成的大模型的輸出結果參與訓練一個層數相對較淺的卷積神經網路模型,採用soft label方式壓縮模型。可分離卷積是一個卷積核只負責一個通道的運算,然後用1x1卷積進行跨通道整合,相比傳統的一個通道要對應多個卷積核的運算,大幅度降低模型的引數和計算量,在移動端應用的mobilenet網路模型就是採用的這種卷積結構。組卷積方式是在進行卷積運算時,將每層的輸出分組進行分組卷積運算然後再將運算後結果合在一起,把輸出的通道數進行分組,比如輸入256個通道同時輸出256個,分成8組,在進行卷積運算時就是8x3x3x32x32是標準的卷積運算256x3x3x256引數量的八分之一。在語意分割時採用的空洞卷積,效果也是不錯的。

  • 中秋節和大豐收的關聯?
  • 變頻器的停止方式是什麼?