通常神經網路不會給出公式,因為通常情況下引數非常多,比如有些用於影象分類的卷及神經網路,經常有幾十層,引數能達到幾千萬或更好的數量級。
因此神經網路通常給出的是結構,對於卷及神經網路會給出卷積核大小,filter數等等,在這不做贅述。
神經網路的適用範圍還是很多的,比如多層感知器MLP可以通過幾個自變數來預測因變數,這算是最簡單的神經網路結構,好多非人工智慧領域的簡單模型僅有三層,且隱藏層神經元數量不多。
卷積神經網路CNN(Xception, Interception, VGG16, VGG19, ResNet等)通常用來做圖片分類,迴圈神經網路RNN(包括LSTM, NARX等)通常用於時間序列分析,自然語言分析等。
你可以學習下Coursera 上Andrew Ng的Machine Learning和Deep learning 等課程,介紹的很詳細,而且課程是免費的。
在中國知網或Web of Science或者CSDN可以搜尋到很多相關模型的應用案例或研究。
通常神經網路不會給出公式,因為通常情況下引數非常多,比如有些用於影象分類的卷及神經網路,經常有幾十層,引數能達到幾千萬或更好的數量級。
因此神經網路通常給出的是結構,對於卷及神經網路會給出卷積核大小,filter數等等,在這不做贅述。
神經網路的適用範圍還是很多的,比如多層感知器MLP可以通過幾個自變數來預測因變數,這算是最簡單的神經網路結構,好多非人工智慧領域的簡單模型僅有三層,且隱藏層神經元數量不多。
卷積神經網路CNN(Xception, Interception, VGG16, VGG19, ResNet等)通常用來做圖片分類,迴圈神經網路RNN(包括LSTM, NARX等)通常用於時間序列分析,自然語言分析等。
你可以學習下Coursera 上Andrew Ng的Machine Learning和Deep learning 等課程,介紹的很詳細,而且課程是免費的。
在中國知網或Web of Science或者CSDN可以搜尋到很多相關模型的應用案例或研究。