-
1 # Ghostiger
-
2 # CatLoveBook
一個是告訴你機器學習的發展過程,各種解決問題的思想由來,另一個就是其實沒有萬能學習器,在效果和效率上每種模型可能都有最適應的場合。比如svm它訓練慢但好了後預測快啊。而且,還有一點,複雜的學習器是不能直觀描述其工作原理的,比如一個神經網路,它可能很多個隱藏層,那你怎麼給別人解釋它從資料輸入到結果輸出是怎麼做判別的,而一個線性迴歸,它的每個係數的實際意義就相對好解釋了。
-
3 # python小白社群
這個可以從幾個角度上來說,第一,神經網路為代表的深度學習,有很多訓練資料的前提下,會有比較好的表現。但經常在實踐中有很多場景,比如像醫療並不會有特別海量的資料來提供訓練,所以說深度學習的表現在這個領域也不會是特別適合。在這種情況下,只能採用機器學習演算法來進行解決。
第2點深度學習是一個黑盒計算,即使學習出來結果,也無法進行解釋。但機器學習卻正好相反,計算過程和結果能夠進行很清晰的解釋。
第3點深度學習需要強有力的GPU進行支援,但在很多場景下使用GPU不太可能,所以說在這種場景下積極學習也就成為當仁不讓的演算法了。
上面說了幾點總結一下,在現有的場景下也有深度學習適合的,也有機器學習適合的,所以要根據場景不同選用不同的演算法。
-
4 # 老郭講演算法
神經網路是機器學習演算法的一種,是一種樸素仿生學的演算法,透過複雜多層神經元結構來擬合複雜函式。神經網路需要大量的資料訓練作為基礎,而且存在過擬合的問題,如果需要擬合的函式複雜度不高,資料量不夠則不太適合用神經網路的。SVM適用於二分類問題,KNN可以多分類但需要大資料支援,不同的機器學習模型適用的場景是不太一樣的。模型的選擇需要依據問題的特點來學習,所以除了看書就是多去解決問題,同一個問題用不同的演算法去試試比較一下就會有更深的理解,很多用神經網路去套所有的問題,其實是非常不可取的,不可能用一雙鞋去套所有的腳丫子。另外,李航寫的統計學習入門不錯,西瓜書個人覺得一般。
-
5 # 邢博士談科教
要看你的資料量和樣本數量,不同的樣本數量和特徵資料量適合採用的演算法都不一樣。神經網路等深度學習演算法需要訓練很大的資料集才能構建比較好的預測模型。很多網際網路大公司比較喜歡深度學習演算法是他們獲得的使用者資料都是數以億計的海量資料,這是比較適合卷積神經網路等深度學習演算法。
如果你的樣本數量很少,比較合適的是使用SVM,決策樹等機器學習演算法,如果你的資料集比較大,可以考慮使用卷積神經網路等深度學習演算法。
這有一個圖,就是說明任何根據樣本數量和資料集大小來選擇機器學習演算法的。
-
6 # 編碼之道
以一個生活中的例子來類比,可能更容易理解這個問題。既然飛機是一種高效的交通工具,那麼為什麼還有火車和汽車,甚至是摩托車,腳踏車呢?我想答案應該很簡單,一個是使用成本,另一個是適用環境。其實以神經網路為基礎的深度學習與傳統的機器學習和交通工具的例子類似。
首先是成本,神經網路,特別是深度學習使用的深層網路,因為需要訓練的引數很多,不但需要收集並標記大量的訓練資料,還需要高效能的計算裝置——GPU,這些都會增加解決方案的成本。而傳統的機器學習則不同,它們需要訓練的引數相對較少,計算量也相對較低,雖然精度可能會不如深度學習,但是它有成本優勢。就如同坐飛機和做火車都能到北京一樣,在時間緊張的情況下,就花費較高的費用乘飛機;在時間充足的情況下,就可以選擇費用較低的火車。
其次是適用環境,神經網路在資料不足的情況下很難訓練出理想的效果,而實際中經常會遇到很難收集到大量資料的情況,此時即使不計成本,也因為無法收集到充足的資料而無法使用。相反,SVM、決策樹等傳統的機器學習方法對資料的需求量少,在這些情況下就更容易發揮優勢。就如同飛機、火車無法到達的地方,可以選擇開車或者騎摩托一樣。
-
7 # 興之所至白駒過隙
神經網路演算法的預測精度並沒有很理想,比不上隨機森林、bootstrap ,演算法是不同原理追求分類效果的成果,尋找更高精度的分類演算法是統計學家的追求,多種演算法也有利於比較研究。現在一些實用情境往往會綜合好幾種演算法來進行預測評估。
-
8 # 繁星落石
因為不同演算法在結構上差異巨大,也就意味著最終訓練出來的模型體積和效能差異很大,所以針對不同的應用場景和需求,使用最合適的模型是正確的做法。像神經網路這種模型,很可能帶來巨大的計算量,但是問題本身又十分簡單,使用並不一定適合所有的問題。
回覆列表
舉個例子吧,樹上有果子怎麼去摘。有很多方法:拿棍子敲,爬樹,搬樓梯,拿石頭扔...各種方法有其利弊。神經網路需要學習需要時間,比如分類狗和貓,如果要分類豬和狗,還得在訓練一次。有些其他的分類方法就不需要了。總得來說,看分類什麼東西,資料有什麼特性,在考慮用哪種途徑去解決。個人拙見。