回覆列表
  • 1 # AI商業觀察

    人工智慧晶片是AI時代的“芯”,而下一個時代必定是AI的時代。

    在傳統PC時代,英特爾是老大,而現在,除了英特爾,包括英偉達、谷歌、英特爾、蘋果、微軟、特斯拉、Facebook、IBM和阿里等科技巨頭都在研發AI晶片。從中興事件中,想必你已經明白晶片的重要性了。

    在AI晶片行業,國外晶片巨頭佔據了絕大一部分市場份額,同時國內的AI晶片初創企業也呈現百花齊放的狀態。英偉達在全球AI晶片市場獨佔鰲頭,據了AI晶片市場50%以上市場份額,專注研發GPU;谷歌專注研發TPU;英特爾專注於VPU寒武紀科技是全球首個AI晶片獨角獸;地平線機器人專注嵌入式AI晶片BPU;百度釋出了XPU……

    英偉達成立於1993年,一直致力於設計各種GPU:針對個人和遊戲玩家的GeForce系列,針對專業工作站的Quadro系列,以及針對伺服器和高效能運算的Tesla系列。英偉達佔據了全球AI晶片市場的50%以上份額,旗下產品線遍佈自動駕駛汽車、高效能計算、機器人、醫療保健、雲計算、遊戲影片等眾多領域。

    Google在2017年5月的開發大會上正式公佈了TPU2,又稱Cloud TPU,主要適用於雲端計算加速。第二代 TPU 晶片不僅加深了人工智慧在學習和推理方面的能力,而且谷歌是認真地要將它推向市場。根據谷歌的內部測試,第二代晶片針對機器學習的訓練速度能比現在市場上的圖形晶片(GPU)節省一半時間。

  • 2 # 時間的朋友Conan

    首先是吸取中興教訓,自己擁有不會受制於人

    另外,自行研發晶片可以幫助人工應用程式更好執行,同時降低成本,因為把這些服務投放在資料中心成百上千臺計算機上的費用並不便宜。

  • 3 # 中關村線上

    1492年哥倫布從西班牙巴羅斯港出發,一路西行發現了美洲。葡萄牙人達伽馬南下非洲,繞過好望角到達了印度。不久之後,麥哲倫用了整整三年時間,完成了人類史上第一次環球航行,開啟了人類歷史上的大航海時代。大航海時代的到來,拉近了人類社會各文明之間的距離,對人類社會產生了深遠的影響。

    人工智慧進入“大航海時代”

    從深藍到Alpha Go,人工智慧逐漸走進人們的生活。人工智慧也從一場技術革命,逐漸走向了產業落地。智慧手機、智慧家居裝置、智慧音箱……等裝置,已經完全進入到人們的生活中。指紋識別、人臉識別、畫面增強等實用人工智慧的技術,也成為了人們日常使用電子裝置必不可少的技術。

    基於面部識別的emoji表情

    這些在我們日常生活中“見怪不怪”的人工智慧技術越來越普遍,代表了人工智慧產業在近年來的爆炸式發展,2018年更是被稱為人工智慧技術規模應用的拐點。而作為人工智慧技術的核心,人工智慧晶片也備受關注,引得國內外科技巨頭紛紛佈局。谷歌、蘋果、微軟、Facebook、英特爾、高通、英偉達、AMD、阿里巴巴等巨頭紛紛開始自主研發人工智慧晶片。

    中國產寒武紀晶片(圖片來源:http://military.china.com/important/11132797/20171107/31640388_all.html)

    並且人工智慧晶片的應用場景細分市場越來越多,專門為某些人工智慧應用場景定製的晶片適用性明顯高於通用晶片。這樣的形勢,給一些人工智慧晶片的初創公司帶來了機會。寒武紀晶片和地平線的人工智慧視覺晶片、自動駕駛晶片等,就是初創公司在人工智慧晶片領域取得成功的代表。

    人工智慧晶片大火的同時,已經呈現出三分天下的態勢。FPGA、GPU和TPU晶片,已經在人工智慧領域大規模應用。這三種人工智慧晶片有何不同?人工智慧企業又是怎樣看待這三種晶片的?下文將為您詳述。

    FPGA並不是新鮮的事物,而因為AI的火熱的應用需求不斷增強,FPGA正是作為一種AI晶片呈現在人們的面前。準確的說,不僅僅是晶片,因為它能夠透過軟體的方式定義,所以,更像是AI晶片領域的變形金剛。

      FPGA是現場可程式設計邏輯陣列的首字母縮寫,即Field-Programmable Gate Array。過去曾與可程式設計邏輯器件CPLD進行過較量,如今已經在PAL、GAL、CPLD等可程式邏輯裝置的基礎上進一步發展,成為英特爾進軍AI市場的一個重要法寶。

    全球FPGA市場的年均增長率會達到7%(圖片來自:gartner.com)

      為了更好地瞭解FPGA和其對AI晶片的未來看法,ZOL企業站對英特爾可程式設計解決方案事業部亞太區市場拓展經理劉斌(Robin Liu)進行了書面採訪。面對目前市場上出現的,CPU、GPU、FPGA、TPU等多種技術處理方式,英特爾又有哪些判斷。

    FPGA三大特點

      劉斌表示:“實際上今天絕大多數人工智慧系統是部署在通用處理器上的,原因是在很多應用領域中人工智慧部分只是完成某個環節的系統任務,還有大量其它任務一起構成系統處理的完整單元。”在此基礎上,出現了很多種選項,比如FPGA、TPU2或者NNP等專用處理器。這種專用處理器,往往向深度學習和神經網路領域延伸,擁有更高效的儲存器訪問排程結構。

    FPGA具有很強的靈活性(圖片來自:ruggedpcreview.com)

      FPGA被稱為大型資料中心和計算機群眾的“加速多面手”也有其技術生態背景。FPGA的開發社群規模相對較小,也具有一定的門檻,但是,FPGA具備良好的儲存器訪問能力,並且可以非常靈活高效的處理各種不同位寬的資料型別,其有效計算力接近專用處理器的水平,FPGA還可以線上重程式設計成為其它非人工智慧任務的硬體加速器,這也是其有別於GPU和TPU的關鍵因素。

      具體而言有三大特點:FPGA器件家族的廣泛覆蓋可以適配從雲到端的應用需求;FPGA具有處理時延小並且時延可控的特點,更適合某些實時性要求高的業務場景;FPGA可以靈活處理不同的資料位寬,使得系統可以在計算精度、計算力、成本和功耗上進行折衷和最佳化,更適合某些制約因素非常嚴格的工程化應用。相比於ASIC則FPGA更加靈活,可以適配的市場領域更加廣泛。

    自定義功能晶片

      以微軟為例,在微軟必應搜尋業務和Azure雲計算服務中,均應用了英特爾FPGA技術,在其釋出的“腦波專案”(Project Brainwave)中特別闡述了英特爾FPGA技術如何幫助Azure雲和必應搜尋取得“實時人工智慧”(real-time AI)的效果。

      英特爾 FPGA 支援必應快速處理網頁中的數百萬篇文章,從而為您提供基於上下文的答案。藉助機器學習和閱讀理解,必應 現在可提供智慧答案,幫助使用者更快速找到所需答案,而非手動點選各個連結結果。在微軟腦波計劃中,同樣選擇了英特爾現場可程式設計門陣列的計算晶片,以具有競爭力的成本和業界最低延遲進行人工智慧計算。

      如果說在AI晶片領域各家有各家的拿手絕學,那麼身為“變形金剛”FPGA的拿手絕學就是自定義功能了。作為特殊應用積體電路領域中的一種半定製電路的FPGA,既解決了全定製電路的不足,又克服了原有可程式設計邏輯器件閘電路數有限的缺點。也就是說,儘管FPGA不是輻射範圍最廣的,但是一旦匹配後,輸出驚人,所以也是良好的晶片選擇。

    不止FPGA

      隨著人工智慧的發展,晶片的設計不僅要能夠滿足人工智慧對計算力的需求,還要能夠適應不斷變化的產業需要。在不同的應用領域和不同的位置,前端還是資料中心,甚至邊緣計算等應用場景。劉斌表示:一種晶片是沒辦法解決所有問題的。從移動裝置,到伺服器,再到雲服務、機器學習和人工智慧的加速,需要不同種類的技術支援,需要能夠支援從毫瓦級到千瓦級的多種架構。

      在英特爾人工智慧領域,除了FPGA之外,還提供了ASIC方案下的NNP神經網路計算加速器、Movidius專注前端智慧攝像頭領域和Mobieye加速晶片,在無人車領域做視覺相關的物體、道路、異常情況的監測。

    過去30多年,摩爾定律幾乎每年都會推動微處理器的效能提升50%,而半導體的物理學限制卻讓其放慢了腳步。如今,CPU的效能每年只能提升10%左右。事實上,英偉達CEO黃仁勳在每年的GTC上都會提到同一件事——摩爾定律失靈了。也就是說,人們要獲得更強的計算力,需要花費更多的成本。與此同時,GPU的崛起速度令人咂舌,看看英偉達近兩年的股價就知道了。

    微處理器趨勢圖(圖片來自NVIDIA)

    隨著人工智慧、深度學習等技術的興起與成熟,起初為影象渲染而生的GPU找到了新的用武之地,以GPU驅動的計算環境隨處可見,從HPC到AI訓練。站在數字世界、高效能計算、人工智慧的交叉口,GPU悄然成為了計算機的大腦。將效能從10倍提升至100倍,GPU的加速能力遠超以X86架構構建的CPU系統,將時間壓縮至分鐘級別,功耗也相對較低。

    2006年,藉助CUDA(Compute Unified Device Architecture,通用計算架構)和Tesla GPU平臺,英偉達將通用型計算帶入了GPU並行處理時代,這也為其在HPC領域的應用奠定了基礎。作為並行處理器,GPU擅長處理大量相似的資料,可以將任務分解為數百或數千塊同時處理,而傳統CPU則是為序列任務所設計,在X86架構下進行多核程式設計是很困難的,並且從單核到四核、再到16核有時會導致邊際效能增益。同時,記憶體頻寬也會成為進一步提高效能的瓶頸。

    傳統CPU計算架構難以支撐快速成長的HPC(圖片來自NVIDIA)

    與以往的通用演算法相比,深度學習對計算效能的要求則到了另一個量級上。儘管在GPU中執行並行核心時處理的應用數量相同,但在系統中單個核心的使用效率卻更高。此外,經過重寫的並行函式在應用程式關鍵部分執行時,在GPU上跑的速度更快。

    更重要的是,英偉達在利用GPU構建訓練環境時還考慮到了生態的重要性,這也是一直以來困擾人工智慧發展的難題。首先,英偉達的NVIDIA GPU Cloud上線了AWS、阿里雲等雲平臺,觸及到了更多雲平臺上的開發者,預整合的高效能AI容器包括TensorFlow、PyTorch、MXNet等主流DL框架,降低了開發門檻、確保了多平臺的相容性。

    其次,英偉達也與研究機構、大學院校,以及向Facebook、YouTube這樣的科技巨頭合作,部署GPU伺服器的資料中心。同時,還為全球數千家創業公司推出了Inception專案,除了提供技術和營銷的支援,還會幫助這些公司在進入不同國家或地區的市場時,尋找潛在的投資機會。

    可以說,英偉達之於GPU領域的成功除了歸功於Tesla加速器、NVIDIA DGX、NVIDIA HGX-2這些專屬的工作站或雲伺服器平臺,更依託於構建了完整的產業鏈通路,讓新技術和產品有的放矢,從而形成了自己的生態圈,這也是英特爾難以去打破的。

    在不久前舉行的谷歌I/O 2018開發者大會上,TPU3.0正式亮相。根據官方介紹,TPU3.0的計算能力最高可達100PFlops,是TPU2.0的8倍多。TPU的英文全名是Tensor Processor Unit,它是谷歌自主研發的針對深度學習加速的專用人工智慧晶片。TPU是專為谷歌深度學習框架TensorFlow設計的人工智慧晶片。著名的AlphaGo使用的就是TPU2.0晶片。

    谷歌TPU3.0晶片

    (圖片來源:https://techcrunch.com/2018/05/08/google-announces-a-new-generation-for-its-tpu-machine-learning-hardware/)

    目前大多數人工智慧企業青睞於GPU晶片,而TPU相對於GPU而言,採用8位低精度計算節省電晶體,對精度影響很小但是卻可以大幅節約功耗。尤其是當大面積整合系統時,TPU不僅效能更強,功耗也會大幅低於GPU整合系統。由於晶片能力非常強大,谷歌使用了液冷散熱技術,可以幫助TPU更好的為資料中心服務。

    谷歌TPU架構

    除了強大的效能外,谷歌在生態系統的建設上做了大量的工作。在TPU1.0和2.0的初期,谷歌並沒有大規模推進其商業化,而是圍繞生態做文章。這就意味著要投入鉅額的成本,而且冒著極大的市場風險。當然,背後的潛在市場也是巨大的。在人工智慧市場競爭激烈的形勢下,吸引到更多的開發者到谷歌的生態系統中,將會比對手有更強的競爭優勢。

    TPU計算叢集

    目前谷歌正快速擴張自己的雲計算業務,TPU也依託於雲平臺執行。透過更低的售價讓人工智慧開發企業拋棄GPU,轉投成本更低的TPU服務,是谷歌目前正在大力發展的業務。如果TPU無法獲得巨大的市場份額從而降低單顆TPU的成本,那麼谷歌將很難在人工智慧市場盈利。不過,TPU強勁的計算效能和叢集計算陣列可以讓人工智慧開發企業更快的開展業務。TPU的強大,讓谷歌在人工智慧晶片領域已稱霸一方。

    上游廠商喊得再歡,落地到千人千面的行業場景中也要由解決方案商來幫忙,無論是GPU、FPGA還是TPU,最終還是要聽聽客戶的使用感受。為此,我們採訪了人工智慧產品和行業解決方案提供商曠視科技。曠視科技利用自主研發的深度學習演算法引擎Brain++,服務於金融安全、城市安防、手機AR、商業物聯、工業機器人等五大核心行業。

    在曠視科技看來,GPU、FPGA、TPU在通用性和能效比之間的取捨不同。其中,GPU最成熟,但也最耗資源,常用於訓練神經網路和服務端;FPGA最靈活,能支援應用中出現的特殊操作,但要考慮靈活度和效率之間的trade-off;TPU相對最不靈活,但如果場景合適則能發揮出最大功用。

    如果拿汽車類比,GPU是大巴車,適合多人同目標;FPGA是小轎車,能到任何地方,但得自己會開;而TPU是火車,只能在比公路少的多的鐵軌上開,但開的飛快。人工智慧還在快速發展,還處於在各個行業落地的過程中。這個階段對GPU,FPGA和TPU都有需求。

    目前,曠視科技選擇的是T型技術方案,即在維持一定廣度的同時,深耕某些應用場景,因此在演算法實際落地的過程中,自然而然地產生了從GPU/CPU到FPGA的需求。GPU主要用於訓練,而FPGA能在端上能提供比GPU更好的效能功耗比。CPU則是無處不在的“預設"選擇。未來,不排除採用TPU的方案來進一步提高階上的能力。

    從行業來看,當前IoT領域對AI晶片的需求最為迫切,原因是IoT領域要求在有限的功耗下完成相應的AI任務,最需要效能功耗比高的AI晶片。至於未來要藉助AI賦能各個行業,曠視科技認為,最初階段可能都會先用GPU的AI方案,因為和源頭(即神經網路訓練階段)銜接最好。另外對於中心化的應用,只要GPU按現在的“黃定律”的速度迭代前進,基於GPU在大批次處理資料的場景下仍然經常是公開可得的最佳方案。

  • 中秋節和大豐收的關聯?
  • 韓紅身上有哪些值得我們去學習?