回覆列表
  • 1 # 買檯筆記本

    因為目前很多機器學習都還是簡單的重複試錯邏輯,靠運算量來把有限的解(答案)暴力破解出來。

    我們拿下棋為例子,中國象棋。你只要給機器輸入每種棋子的行進規則(例如馬日象田),再給機器輸入勝利的條件(幹掉對方的將軍),然後其他什麼都不用管,讓機器模擬出兩個棋手互相訓練,每次對局完了就能積累出經驗繼承到下面的對局,最終它就會摸索出一套勝率最高的下棋策略。

    例如自動駕駛,你可以給它輸入一些加速、減速、變向的簡單指令,然後再輸入“撞到障礙物是錯的,需要糾正”以及“目的是以最快的速度抵達目的地”,然後讓車子在某個訓練場所不斷地試錯,每次試錯都會累積經驗給下一次駕駛,最終他就會知道哪些操作是錯的,怎樣駕駛的效率是最高的。

    這種簡單重複的低邏輯運算(我前面提到的是太簡單了,實際上不止這麼簡單)是最適合給GPU來執行的,因為它的流處理器數量是數百倍於CPU,而且這種程度的邏輯運算是流處理器就能處理得了的。

    另一方面機器要堆砌GPU的難度是很低的,直接把運算卡插到主機板上就能獲得相應的算力提升。但CPU數量和核心數的堆砌都是很難的,比GPU難太多。

    所以現在大概瞭解為什麼機器學習用GPU會更好了吧?

  • 中秋節和大豐收的關聯?
  • 如何恢復受損傷的硬碟,修復有多大難度呢?