回覆列表
-
1 # IT史記研究所
-
2 # 二手老法師
這個問題看起來有些奇怪,但可以肯定的是,有了專門的AI晶片可以減少CPU和GPU的負荷,同時處理資料和任務的速度更快,而且在處理一些AI人工智慧服務的時候,對於雲端的依賴度更低。
但現在手機上的AI技術門類還是比較多,也不是隻有集成了NPU,也就是網路神經引擎晶片的才是AI智慧手機,各家的解決方案還是各具特色。比如高通和谷歌,甚至摩托羅拉都有自己的技術,至於表現如何或許只有支援終端出來後才能看出優劣。
-
3 # Mn240932675
這就是一個自然而然的過程。隨著科學技術的發展,手機的整合度越來越高,手機的功能也越來越多。從一開始的資料處理只需要CPU就可以完成,到後來的圖型的加入所以就有了GPU,再到後來的攝像頭的加入從而產生了ISP。
所以,現在隨著人工智慧,包括物聯網技術和AR技術的加入,就要求手機能有更強大的影象識別和分析能力,這就是加入AI處理單元的原因。
為什麼要給智慧手機專門加入一枚AI晶片?原因其實很簡單。不管是手機、筆記本還是桌上型電腦的處理器,都並不是為機器學習任務所特別設計的。如果強行讓它們去處理這些任務,不僅速度很慢,也會非常耗電。
隨著手機智慧應用越來越多,傳統晶片要麼效能不夠,要麼效率不足,難以支撐人工智慧所需的大規模神經網路運轉。
例如,“谷歌大腦”用了上萬個通用處理器“跑”了數天來學習如何識別貓臉;
“阿爾法狗”和李世石下棋時使用了上千箇中央處理器(CPU)和數百個圖形處理器(GPU),平均每局電費近3000美元。對於絕大多數智慧需求來說,基於通用處理器的傳統計算機成本高、功耗高、體積大、速度慢,難以接受。
目前迅猛發展的人工智慧,上層的應用都依賴於底層核心能力,而這個核心能力就是人工智慧處理器。如果在晶片上不能突破,人工智慧應用就不可能真正成功。可以說核心晶片是人工智慧時代的戰略制高點。
人工智慧目前採用的深度學習演算法,有海量的資料運算需求,對傳統架構和系統提出了極大挑戰。
深度學習,就是透過演算法給機器設計一個神經網路。這個網路的基本特點,是模仿大腦神經元之間傳遞、處理資訊的模式,從多個角度和層次來觀察、學習、判斷、決策。近年來,這種方法已應用於許多領域,比如人臉識別、語音識別等,是人工智慧領域的熱點研究方向之一。
用於影象處理的GPU晶片因海量資料並行運算能力,被最先引入深度學習。2011年,當時在谷歌就職的吳恩達將英偉達的GPU應用於“谷歌大腦”中,結果表明12個GPU可達到相當於2000個CPU的深度學習效能。之後多家研究機構都基於GPU來加速其深度學習神經網路。
然而,隨著近兩年人工智慧技術的迅速發展,GPU在三個方面顯露出侷限性:無法充分發揮平行計算優勢,硬體結構固定不具備可程式設計性,執行深度學習演算法能效不足。
我們現在的新手機需要AI晶片嗎?
簡單來說,這個問題的答案是否定的。想要在目前的硬體上提高AI服務的執行效果,手機及晶片廠商們需要做的還有很多,還沒有到大規模普及的階段
除非你是真正的高需求使用者,不然就不必糾結於此。
蘋果和華為的新產品之所以配備AI晶片,是因為他們想把自己的產品做得更好而已。
華為可以用它來監控Mate 10在生命週期之內是如何被使用的,並重新分配資源來避免它變得卡頓。而對於蘋果而言,AI晶片可以用來驅動Face ID和動話表情等新功能。