英特爾 CEO Brian Krzanich 剛剛在《華爾街日報》舉辦的 D.Live 大會上釋出了自家效能最強、專為深度學習而打造的神經網路處理器 Nervana 。其聲稱這顆 ASIC 晶片可用於處理人工智慧方面的工作(比如矩陣乘法和轉換),這是它與 CPU 和 GPU 這樣的通用計算硬體的最大區別。儘管當前英特爾在晶片架構上沒有太深入的動力,但 Nervana 創造者 Naveen Rao 在一篇單獨的部落格文章中寫到:
其從一開始就能理解所涉及的操作和資料動作,因此該晶片可以不像今日的 CPU 或 GPU 那樣需要一個標準的快取層次結構。
相反,其記憶體管理顯然是 100% 在軟體中完成的。Rao 聲稱,與主打通用計算的競品相比,這意味著該晶片能夠更好地壓榨晶片效能。
在更早的一篇部落格文章中,該公司表示,由於僅包含金酸相關的硬體,Nervana 可以省去與快取控制和相干邏輯有關的電路,從而囊括更多的計算資源。
在那時,Nervana 還計劃為該晶片搭配高達 32GB 的四堆疊 HBM 運存,且暗示已透過某種形式實現了神經網路計算(NNP)。
NNP 的另一潛在創新,在於對某些資料型別的處理。英特爾聲稱 NNP 提供了一種全新的“拐點”(Flexpoint)數字格式。
該公司稱:“Flexpoint 允許透過固定點乘和加法來實現標量計算,也可藉助共享指數來實現大動態範圍”。
該特性還使得 NNP 可以在給定核心面積上封裝進更多的操作部件,同時減少每個部件工作時的能耗。此外,每個 NNP 也可包含專門用於和其它神經網路處理器通訊的片內互聯晶片。
在過去有關 Nervana Engine ASIC 的描述中,該公司計劃為每顆晶片上具有彈性計算力的內部或互聯連結點引入“六個雙向高頻寬連結”—— 要麼增加用於任務的計算資源的數量、要麼增加 NNP 叢集的規模大小。
Krzanich 表示,當前英特爾正在制定數代 Nervana NNP 產品。而該公司新聞稿中也提到,未來這些產品有助於在 2020 年將深度學習成績提升百倍的目標。
英特爾 CEO Brian Krzanich 剛剛在《華爾街日報》舉辦的 D.Live 大會上釋出了自家效能最強、專為深度學習而打造的神經網路處理器 Nervana 。其聲稱這顆 ASIC 晶片可用於處理人工智慧方面的工作(比如矩陣乘法和轉換),這是它與 CPU 和 GPU 這樣的通用計算硬體的最大區別。儘管當前英特爾在晶片架構上沒有太深入的動力,但 Nervana 創造者 Naveen Rao 在一篇單獨的部落格文章中寫到:
其從一開始就能理解所涉及的操作和資料動作,因此該晶片可以不像今日的 CPU 或 GPU 那樣需要一個標準的快取層次結構。
相反,其記憶體管理顯然是 100% 在軟體中完成的。Rao 聲稱,與主打通用計算的競品相比,這意味著該晶片能夠更好地壓榨晶片效能。
在更早的一篇部落格文章中,該公司表示,由於僅包含金酸相關的硬體,Nervana 可以省去與快取控制和相干邏輯有關的電路,從而囊括更多的計算資源。
在那時,Nervana 還計劃為該晶片搭配高達 32GB 的四堆疊 HBM 運存,且暗示已透過某種形式實現了神經網路計算(NNP)。
NNP 的另一潛在創新,在於對某些資料型別的處理。英特爾聲稱 NNP 提供了一種全新的“拐點”(Flexpoint)數字格式。
該公司稱:“Flexpoint 允許透過固定點乘和加法來實現標量計算,也可藉助共享指數來實現大動態範圍”。
該特性還使得 NNP 可以在給定核心面積上封裝進更多的操作部件,同時減少每個部件工作時的能耗。此外,每個 NNP 也可包含專門用於和其它神經網路處理器通訊的片內互聯晶片。
在過去有關 Nervana Engine ASIC 的描述中,該公司計劃為每顆晶片上具有彈性計算力的內部或互聯連結點引入“六個雙向高頻寬連結”—— 要麼增加用於任務的計算資源的數量、要麼增加 NNP 叢集的規模大小。
Krzanich 表示,當前英特爾正在制定數代 Nervana NNP 產品。而該公司新聞稿中也提到,未來這些產品有助於在 2020 年將深度學習成績提升百倍的目標。