回覆列表
-
1 # CynthiaLee95
-
2 # 改變259541880
卷積引數是模型學習出來的,卷積是影象處理常用的方法給定輸入影象在輸出影象中每一個畫素是輸入影象中一個小區域中畫素的加權平均,其中權值由一個函式定義。常見的3×3,但為什麼是3X3,並沒有理論依據透過大量的實踐測試得來的,這個大小好用核中每個引數的值是透過訓練得來的訓練網路旳過程也是訓練引數的過程。
-
3 # 東北振興
卷積核(filter)一般是3D多層的,除了面積引數, 比如3x3之外, 還有厚度引數H(2D的視為厚度1). 還有一個屬性是卷積核的個數N。
卷積核的厚度H, 一般等於前層厚度M(輸入通道數或feature map數). 特殊情況M > H。
卷積核的個數N, 一般等於後層厚度(後層feature maps數,因為相等所以也用N表示)。
卷積核通常從屬於後層,為後層提供了各種檢視前層特徵的視角,這個視角是自動形成的。
卷積核厚度等於1時為2D卷積,對應平面點相乘然後把結果加起來,相當於點積運算;
卷積核厚度大於1時為3D卷積,每片分別平面點求卷積,然後把每片結果加起來,作為3D卷積結果;1x1卷積屬於3D卷積的一個特例,有厚度無面積, 直接把每片單個點乘以權重再相加。
關注中公優就業,學習更多深度學習知識。
卷積引數是模型學習出來的,卷積核的大小以及個數是人工來確定的,二維卷積卷積核大小一般是1*1,3*3,5*5,7*7這樣奇數的。卷積核的個數就是網路的channel數,常見的128 256 512這種,需要根據具體任務確定。
另外最近神經網路自動搜尋結構非常火,最有名的就是谷歌的NASnet,採用某種啟發式遍歷來尋找對於特定資料集最優的網路結構