回覆列表
  • 1 # 青少年機器人創客

    先回答問題,

    (1)效能與傳統晶片,比如CPU、GPU有很大的區別。在執行AI演算法時,更快、更節能。

    (2)工藝沒有區別,大家都一樣。至少目前來看,都一樣。

    所謂的AI晶片,一般是指標對AI演算法的ASIC(專用晶片)。

    傳統的CPU、GPU都可以拿來執行AI演算法,但是速度慢,效能低,無法實際商用。

    比如,自動駕駛需要識別道路行人紅綠燈等狀況,但是如果是當前的CPU去算,那麼估計車翻到河裡了還沒發現前方是河,這是速度慢,時間就是生命。如果用GPU,的確速度要快得多,但是,功耗大,汽車的電池估計無法長時間支撐正常使用,而且,老黃家的GPU巨貴,經常單塊上萬,普通消費者也用不起,還經常缺貨。另外,GPU因為不是專門針對AI演算法開發的ASIC,所以,說到底,速度還沒到極限,還有提升空間。而類似智慧駕駛這樣的領域,必須快!在手機終端,可以自行人臉識別、語音識別等AI應用,這個必須功耗低,所以GPU OUT!

    所以,開發ASIC就成了必然。

    目前對AI晶片的需求主要集中在哪些方面。

    先來講講AI目前晶片大致的分類:從應用場景角度看,AI晶片主要有兩個方向,一個是在資料中心部署的雲端,一個是在消費者終端部署的終端。從功能角度看,AI晶片主要做兩個事情,一是Training(訓練),二是Inference(推理)。

    目前AI晶片的大規模應用分別在雲端和終端。雲端的AI晶片同時做兩個事情:Training和Inference。Training即用大量標記過的資料來“訓練”相應的系統,使之可以適應特定的功能,比如給系統海量的“貓”的圖片,並告訴系統這個就是“貓”,之後系統就“知道”什麼是貓了;Inference即用訓練好的系統來完成任務,接上面的例子,就是你將一張圖給之前訓練過的系統,讓他得出這張圖是不是貓這樣的結論。

    Training 和 Inference 在目前大多數的AI系統中,是相對獨立的過程,其對計算能力的要求也不盡相同。

    Training需要極高的計算效能,需要較高的精度,需要能處理海量的資料,需要有一定的通用性,以便完成各種各樣的學習任務。

    對於晶片廠家來說,誰有資料,誰贏!

    Inference相對來說對效能的要求並不高,對精度要求也要更低,在特定的場景下,對通用性要求也低,能完成特定任務即可,但因為Inference的結果直接提供給終端使用者,所以更關注使用者體驗的方面的最佳化。

    谷歌TensorFlow團隊:深度學習的未來,在微控制器的身上

    Pete Warden,是谷歌TensorFlow團隊成員,也是TensorFLow Mobile的負責人。

    Pete 堅定地相信,未來的深度學習能夠在微型的、低功耗的晶片上自由地奔跑。

    微控制器 (MCU) ,有一天會成為深度學習最肥沃的土壤。

    為什麼是微控制器?微控制器遍地都是

    微控制器(MCU)裡面有個小CPU,RAM只有幾kb的那種,但醫療裝置、汽車裝置、工業裝置,還有消費級電子產品裡,都用得到。

    這樣的計算機,需要的電量很小,價格也很便宜,大概不到50美分。

    之所以得不到重視,是因為一般情況下,MCU都是用來取代 (如洗衣機裡、遙控器裡的) 那些老式的機電系統——控制機器用的邏輯沒有發生什麼變化。

    CPU和感測器不太耗電,傳輸耗錢、耗電!CPU和感測器的功耗,基本可以降到微瓦級,比如高通的Glance視覺晶片。

    相比之下,顯示器和無線電,就尤其耗電了。即便是WiFi和藍芽也至少要幾十毫瓦。

    因為,資料傳輸需要的能量,似乎與傳輸距離成正比。CPU和感測器只傳幾毫米,如果每個資料都需要端管雲這樣傳輸,每個演算法都需要輸送到雲端進行處理,自然代價就要貴得多。

    感測器的資料很多,傳輸起來很費勁!感測器能獲取的資料,比人們能用到的資料,多得多。例如:衛星的圖片資料很多,但是傳到地球很困難。

    衛星或者宇宙飛船上的宇航員可以用高畫質相機來拍高畫質影片。但問題是,衛星的資料儲存量很小,傳輸頻寬也很有限,從地球上每小時只能下載到一點點資料。

    地球上的很多感測器也一樣,本地獲得很容易,但是傳輸到遠端的資料中心就需要很多的代價。

    跟深度學習有什麼關係

    如果感測器的資料可以在本地運算,又不需要很多的代價和電力。

    我們需要的是,能夠在微控制器上運轉的,不需要很多電量的,依賴計算不依賴無線電,並且可以把那些本來要浪費掉的感測器資料利用起來的。

    這也是機器學習,特別是深度學習,需要跨越的鴻溝。

    相比之下,神經網路大部分的時間,都是用來把那些很大很大的矩陣乘到一起,翻來覆去用相同的數字,只是組合方式不同了。

    這樣的運算,當然比從DRAM裡讀取大量的數值,要低碳得多。

    需要的資料沒那麼多的話,就可以用SRAM這樣低功耗的裝置來儲存。

    如此說來,深度學習最適合MCU了,尤其是在8位元計算可以代替浮點運算的時候。

    1、深度學習很低碳

    那麼AI的計算,每次運算需要多少皮焦耳?

    比如,MobileNetV2的影象分類網路最簡單的結構,大約要用2,200萬次運算。

    如果,每次運算要5皮焦,每秒鐘一幀的話,這個網路的功率就是110微瓦,用紐扣電池也能堅持近一年。

    2、對感測器也友好

    最近幾年,人們用神經網路來處理噪音訊號,比如影象、音訊、加速度計的資料等等。

    如果可以在MCU上執行神經網路,那麼更大量的感測器資料就可以得到處理,而不是浪費。

    那時,不管是語音互動,還是影象識別功能,都會變得更加輕便。

    Training將在很長一段時間裡集中在雲端,Inference的完成目前也主要集中在雲端,但隨著越來越多廠商的努力,很多的應用將逐漸轉移到終端。

    目前的市場情況:雲端AI晶片市場已被巨頭瓜分殆盡,創業公司生存空間幾乎消失。

    雲端AI晶片無論是從硬體還是軟體,已經被傳統巨頭控制,給新公司預留的空間極小。不客氣的說,大多數AI晶片公司、希望在雲端AI做文章的初創公司幾乎最後都得死。

    資料越多,對應用場景越理解的公司,對演算法、硬體的需求越清楚、越理解深入。

    我們可以看到,晶片巨頭Nvidia(英偉達)已經牢牢佔據AI晶片榜首,由於CUDA開發平臺的普及,英偉達的GPU是目前應用最廣的通用AI硬體計算平臺。除了有實力自研晶片的企業(全世界也沒幾家),如果需要做AI相關的工作,必定需要用到Nvidia的晶片。Nvidia的晶片應用普遍,現在所有的AI軟體庫都支援使用CUDA加速,包括谷歌的Tensorflow,Facebook的Caffe,亞馬遜的MXNet等。

    除了一騎絕塵的英偉達,其他老牌的晶片巨頭都沒閒著,特別是Intel透過買、買、買奮力的將自己擠到了頭部玩家的位置。微軟在最新的Build大會上公佈了基於英特爾FPGA的 AI 方案,而英特爾的 FPGA 業務正是透過收購Altera獲得的。

    除此之外,我們可以看到像Google這樣的網際網路廠商也亂入了前五。這當然要歸功於上面提到的TPU,雖然谷歌不直接售賣晶片,但是谷歌透過雲服務提供TPU的呼叫服務。谷歌很早就開源了Tensorflow軟體平臺,這使得Tensorflow成為最主流的機器學習軟體平臺,已經成了事實上行業的軟體平臺標準。而Tensorflow最佳的計算環境必定就是谷歌自己的雲服務了,透過軟體、硬體(或者說雲)環境的打通,谷歌妥妥的成為AI晶片領域的一方霸主。

    現在業界爭論的焦點是AI晶片的處理器架構用哪種是最好的,有前面提及的有GPU、FPGA、DSP和ASIC,甚至還有更前沿的腦神經形態晶片。現在GPU可以認為是處於優勢地位,但其他幾種的處理器架構也各有優勢。Intel則是多方下注,不錯過任何一種處理器架構。谷歌在TPU(其實就是一種ASIC)方面的巨大投入帶來了硬體效能的極大提高,目前看來對GPU的衝擊將是最大的,原因不單單是因為專用架構帶來的效率優勢,還有商業模式方面帶來的成本優勢。在半導體行業內的普遍觀點是,一旦AI的演算法相對穩定,ASIC肯定是最主流的晶片形態。看看挖礦晶片的進化歷程,這個觀點非常有說服力。

  • 2 # 光明右使8787

    通用CPU只包含一些通用運算單元,像加法器乘法器除法器浮點運算等等。矩陣運算要用軟體實現,會消耗更多的CPU資源。AI晶片包含了矩陣運算單元,在做AI運算時可節省CPU資源並加快運算速度。

  • 中秋節和大豐收的關聯?
  • 如何看待,親生女兒溺亡,父親卻在打撈現場說笑玩手機,還稱“死得好”的情況?