回覆列表
  • 1 # 使用者1617394291439

    深度學習加速晶片主要有四種,按靈活易用排CPU>GPU>FPGA>ASIC,效率則是相反的(還有DSP,不過個人不太瞭解)。谷歌這次的TPU屬於ASIC,針對特定演算法最佳化可以達到很高的效率,缺點是靈活性較差,只支援8bit預測,無法訓練。而且應用面太窄量做不上去成本就降不下來。晶片在產量趨於無窮大的時候成本會趨於沙子價,但產量小的時候固定成本會很高。

    實際上TPU是幾年前的技術,很早就看到過介紹TPU的新聞稿。但當時幾乎沒有細節,唯一能得到資訊就是谷歌做了個晶片……

    那麼谷歌在這個時間點上放出這篇論文並大力宣傳是什麼用意呢,我猜大概有三個可能:

    1 內部已經有更好的技術,過時的技術放出來做宣傳。

    幾年過去了谷歌幾乎肯定有更好的技術,TPU公開也不會給競爭者學走什麼東西。這時候論文發出來既可以抬股價又可以吸引人才。

    2 和nvidia殺價

    nvidia盈利大漲,股票一年翻了4倍。這個錢很大一部分來自各大公司的硬體採購。nvidia現在壟斷了伺服器GPU市場如日中天,定價底氣很足。谷歌搞TPU不一定比GPU經濟(因為量小固定成本高),但是放出來可以打壓一下nvidia,增加議價能力。

    nv的老闆黃仁勳第二天就發了一篇回擊的文,表示根核彈比起來TPU就是渣。但是仔細一看兩邊的文章都有點論據不足,偷換概念。只能說全是套路。

    3 戰略性忽悠

    這麼多年下來很多人都發現了,谷歌發論文經常是有戰略目的的,有的時候會故意放一些煙幕彈來誤導別人的研究方向。有可能是谷歌發現TPU這個路線做不下去了所以忽悠別人跳坑。

  • 2 # 使用者8868266884733

    Google將運用此技術打造的機器學習專用晶片稱之為TPU(Tensor Processing Unit),Google在其自家部落格文章稱,由於TPU專為機器學習所執行,得以較傳統CPU、 GPU降低精度,在計算所需的電晶體數量上,自然可以減少,也因此,可從電晶體中擠出更多效能,每秒執行更復雜、強大的機器學習模組,並加速模組的運用,使得使用者更快得到答案,Google指出,團隊已經在資料中心執行TPU超過一年,且發現TPU能讓機器學習每瓦提高一個數量級,粗略來說,相當於摩爾定律中晶片效能往前推進了七年或者三代。

  • 中秋節和大豐收的關聯?
  • 你覺得在古代比“曹衝稱象”更好的辦法的是什麼呢?