回覆列表
  • 1 # 嘟嘟聊數碼

    NVIDIA顯示卡雖說有cuda,但是AMD顯示卡也有opencl啊,其實不管是CUDA還是OpenCL,兩者都是為了滿足通用平行計算,但是cuda是配備完整工具包、針對單一供應商(NVIDIA)的成熟的開發平臺,相對來說更加專用化和封閉化,而opencl則是一個開放的標準,被許多軟體和硬體廠商所使用,範圍比較廣。

    就科學計算來說,確實目前對開發者更友好的cuda使用面更廣,這與cuda擁有相對完整的開發套件有很大關係,經過多年的發展,cuda已經有遠好於OpenCL的生態系統,更易用,對程式設計師更友好,而OpenCL儘管開放,但是API設計怪異,缺乏一致性,功能亦不正交,很不直觀,遠未成熟。

    AMD顯示卡目前是無法支援cuda而只能支援opencl的,在一些科學計算程式中,AMD顯示卡的計算效率確實明顯不如N卡,這裡就是cuda的優勢所在了,之所以AMD沒有開發類似cuda這樣的api主要還是在於AMD沒有足夠的實力制定這項標準,而NVIDIA早在2006年的GTX8800顯示卡上就啟用cuda計劃了,這麼多年的發展nvidia也投入了巨大的人力物力才獲得今天的成就,包括每年的GTC大會都對cuda和相關技術的推廣做了大量工作,而AMD顯然缺乏這方面的工作。

    其實AMD作為同時研發CPU和GPU的半導體廠商,能做到這樣就很不容易了,在資金無法大幅增長的情況下,顯示卡業務只要做好本職工作就很不錯了,至於弄什麼新api標準顯然很難做到,只能期待OpenCL的未來能更加美好吧。

  • 2 # 福州首窮

    N卡用來科學計算有啥用,A卡用來挖礦啊,你不看這幾年A卡靠賣礦卡,不知不覺居然出貨量大漲,居然盈利了!……

  • 3 # 你看我獨角獸嗎

    AMD正在開發一種新的HPC平臺,稱為ROCm。它的目標是建立一個通用的開源環境,使其能夠與Nvidia(使用CUDA)和AMD GPU(更多資訊)互動。

    本教程將說明如何在單個或多個配置中使用AMD GPU來設定神經網路環境。

    在軟體方面:我們將能夠使用Docker在ROCm核心之上執行Tensorflow v1.12.0作為Keras的後端,要安裝和部署ROCm,需要特定的硬體/軟體配置。

    硬體要求

    官方文件(ROCm v2.1)建議以下硬體解決方案。

    支援的CPU

    當前支援PCIe Gen3 + PCIe Atomics的CPU是:

    AMD銳龍CPU;AMD銳龍APU中的CPU;AMD銳龍Threadripper CPUAMD EPYC CPU;Intel Xeon E7 v3或更高版本的CPU;Intel Xeon E5 v3或更高版本的CPU;Intel Xeon E3 v3或更高版本的CPU;英特爾酷睿i7 v4(i7–4xxx),酷睿i5 v4(i5–4xxx),酷睿i3 v4(i3–4xxx)或更新的CPU(即Haswell系列或更新的CPU)。支援的GPU

    ROCm正式支援使用以下晶片的AMD GPU:

    GFX8 GPU“斐濟”晶片,例如AMD Radeon R9 Fury X和Radeon Instinct MI8“ Polaris 10”晶片,例如AMD Radeon RX 480/580和Radeon Instinct MI6“ Polaris 11”晶片,例如AMD Radeon RX 470/570和Radeon Pro WX 4100“ Polaris 12”晶片,例如AMD Radeon RX 550和Radeon RX 540上的晶片GFX9 GPU“ Vega 10”晶片,例如AMD Radeon RX Vega 64和Radeon Instinct MI25“ Vega 7nm”晶片(Radeon Instinct MI50,Radeon VII)測試設定

    作者已使用以下硬體/軟體配置來測試和驗證環境:

    CPU:Intel Xeon E5–2630L記憶體:2 x 8 GB主機板:MSI X99A Krait版GPU:2個RX480 8GB + 1個RX580 4GB固態硬碟:三星850 Evo(256 GB)硬碟:WDC 1TB作業系統:Ubuntu 18.04 LTSROCm下載

    為了使一切正常工作,建議在全新安裝的作業系統中開始安裝過程。在下面的步驟指的是Ubuntu的LTS 18.04作業系統,對於其它作業系統,請參考官方文件。

    安裝ROCm

    現在需要更新apt資訊庫列表並安裝rocm-dkms的meta-package:

    Tensorflow Docker

    使ROCm + Tensorflow後端正常工作的最快,更可靠的方法是使用AMD開發人員提供的docker映像。

    安裝Docker CE

    首先,需要安裝Docker。為此,請按照Ubuntu系統的說明進行操作:

    拉ROCm Tensorflow影象

    docker pull rocm/tensorflow

    幾分鐘後,該Image將安裝到您的系統中,即可開始使用。

    建立jupyter

    我們正在使用Tensorflow v1.12.0。

    讓我們匯入一些有用的函式,以供下一步使用:

    讓我們設定batch size, epochs 和number of classes。

    現在,我們將下載並預處理輸入,並將其載入到系統記憶體中。

    現在是時候定義神經網路架構了:

    我們將使用一個非常簡單的兩層全連線網路,每層具有512個神經元。為了防止過度擬合,我們對神經元drop out了20%。

    開始訓練:

    多GPU訓練

    作為附加步驟,如果您的系統具有多個GPU,則可以利用Keras功能,以減少訓練時間,從而將批次分配給不同的GPU。

    為此,首先需要透過宣告環境變數來指定用於訓練的GPU數量(將以下命令放在單個單元格上並執行):

    !export HIP_VISIBLE_DEVICES = 0,1,...

    從0到…的數字定義了用於訓練的GPU。如果您只是想禁用GPU加速,請執行以下操作:

    !export HIP_VISIBLE_DEVICES = -1結論

    實驗證明,AMD GPU在計算負載下的效能相當好,而價格價效比卻相當高。GPU市場瞬息萬變,ROCm為研究人員、工程師和初創公司提供了非常強大的開源工具以供使用,從而降低了硬體裝置的前期成本和開發時間,建議AMD粉可以嘗試下看看。

  • 中秋節和大豐收的關聯?
  • 感覺最近幾年過年的年味越來越淡了,是智慧產品的普及嗎?你們那邊的過年氛圍是什麼樣子?