簡單來說分為兩種方式:一、使用一預訓練模型作為特徵提取器,再進行模型訓練調優;二、透過調優(Fine-tune)這個預訓練模型,結合影象增廣達到訓練分類器目標。
train_features_vgg = get_bottleneck_features(vgg_model, train_imgs_scaled)
validation_features_vgg = get_bottleneck_features(vgg_model, validation_imgs_scaled)
然後我們搭建簡單的模型分類器,將提取的train_features_vgg 特徵作為模型訓練的輸入引數,迭代訓練可以得到一個簡單的影象分類器。
第二種方法,還是以VGG-16為例,我們先凍結前3層,將4-5層設定為可訓練的,然後再配合image augmentation,透過不斷去訓練迭代最佳化最後兩層的引數去獲得更加優秀的影象分類器。
經過綜合評估,通常第二類方法比第一類方法的實現效果更加。
簡單來說分為兩種方式:一、使用一預訓練模型作為特徵提取器,再進行模型訓練調優;二、透過調優(Fine-tune)這個預訓練模型,結合影象增廣達到訓練分類器目標。
train_features_vgg = get_bottleneck_features(vgg_model, train_imgs_scaled)
validation_features_vgg = get_bottleneck_features(vgg_model, validation_imgs_scaled)
然後我們搭建簡單的模型分類器,將提取的train_features_vgg 特徵作為模型訓練的輸入引數,迭代訓練可以得到一個簡單的影象分類器。
第二種方法,還是以VGG-16為例,我們先凍結前3層,將4-5層設定為可訓練的,然後再配合image augmentation,透過不斷去訓練迭代最佳化最後兩層的引數去獲得更加優秀的影象分類器。
經過綜合評估,通常第二類方法比第一類方法的實現效果更加。