傳統機器學習的問題主要包括如下4個方面:
1)理解並且模擬人類的學習過程;
2)針對計算機系統和人類使用者之間的自然語言介面的研究;
3)針對不完全的資訊進行推理的能力,即自動規劃問題;
4)構造可發現新事物的程式.
傳統機器學習面臨的一個新挑戰是如何處理大資料.目前,包含大規模資料的機器學習問題是普遍存在的,但是,由於現有的許多機器學習演算法是基於記憶體的,大資料卻無法裝載進計算機記憶體,故現有的諸多演算法不能處理大資料.隨著網際網路大資料以及硬體GPU的出現,使得機器學習脫離了瓶頸期。機器學習開始爆炸式發展,開始成為了一門獨立熱門學科並且被應用到各個領域。各種機器學習演算法不斷湧現,而利用深層次神經網路的深度學習也得到進一步發展。同時,機器學習的蓬勃發展還促進了其他分支的出現,例如模式識別,資料探勘,生物資訊學和自動駕駛等等。
如今,如何建立框架和已有成果、應用的聯絡,如何在計算等方面把事情變得可操作是當前機器學習技術的瓶頸之處,也是在當前的應用水平上可能出現飛躍突破的地方。
傳統機器學習的問題主要包括如下4個方面:
1)理解並且模擬人類的學習過程;
2)針對計算機系統和人類使用者之間的自然語言介面的研究;
3)針對不完全的資訊進行推理的能力,即自動規劃問題;
4)構造可發現新事物的程式.
傳統機器學習面臨的一個新挑戰是如何處理大資料.目前,包含大規模資料的機器學習問題是普遍存在的,但是,由於現有的許多機器學習演算法是基於記憶體的,大資料卻無法裝載進計算機記憶體,故現有的諸多演算法不能處理大資料.隨著網際網路大資料以及硬體GPU的出現,使得機器學習脫離了瓶頸期。機器學習開始爆炸式發展,開始成為了一門獨立熱門學科並且被應用到各個領域。各種機器學習演算法不斷湧現,而利用深層次神經網路的深度學習也得到進一步發展。同時,機器學習的蓬勃發展還促進了其他分支的出現,例如模式識別,資料探勘,生物資訊學和自動駕駛等等。
如今,如何建立框架和已有成果、應用的聯絡,如何在計算等方面把事情變得可操作是當前機器學習技術的瓶頸之處,也是在當前的應用水平上可能出現飛躍突破的地方。