AMD GPU 跑 tensorflow 順暢嗎? - 3C

Table of Contents

※ 引述《geminitw (geminitw)》之銘言:
: 目前有在考慮購置第二台機器跑 DL/ML,
: 但因為... 2080ti 價格偏高, 也不知道哪個硬體版本穩定,
: 加上 7nm GG 盛名, 想說 GG 7nm 產能會被爛蘋果影響,
: 乾脆幫 AMD GPU 7nm 捧個場.
: 只是不知道 tensorflow based on AMD RoCm 目前跑起來的狀況/效能如何?
: 請各位前輩指點迷津... 或者 推薦 2080ti 的版本也很可以
: (啥雪花? 金平? 太陽花? Turbo? 很亂... 我只是要跑 ML/DL)
: 感謝!



http://blog.gpueater.com/en/2018/04/23/00011_tech_cifar10_bench_on_tf13/


https://imgur.com/JMx1csU



雖然這資料有點舊,單就效能論,是有資格和nvidia一戰啦。


但我覺得,要買vega來跑你還要加上debug的風險和時間。

划不划算就看你認為這時間佔多少成本。

有的人就喜歡嘗試研究,時間不佔成本。那vega就划算

有的人就喜歡穩,不喜歡花時間在這種沒意義的除錯上。那就nvidia划算。



以下真香評論:

nvidia要保持領先也不是那麼容易的事情


若要問AMDROCm在做啥

基本上就是把nvidia cuda的API照抄一遍

cuda有什麼function我就改個名字,設計一個一毛一樣的function

然後再收錄進我大ROCm的Library中

最後再設計一個自動更名程式,把原本寫給cuda的程式,自動改編為ROCm的程式
(https://github.com/ROCm-Developer-Tools/HIP )

現在這個ROCm版的tensorflow,就是這樣搞出來的。


以上面的測試報告看來,Vega 12nm 的效能是有達到能與nvidia一戰的水準

就只差可靠度,以及軟體支援速度(什麼時候才會有官方pytorch??)。

如果這年度Vega 7nm發售,且可靠度、支援速度能有所提升的話,那是挺值得買的。


再搭配上AMDHBCC記憶體技術,拿內存當顯存用,直接讓你突破16GB顯存容量限制。

這點簡直令所有做AI的人垂涎三尺。

但目前HBCC+ROCm應該還沒成熟
(https://github.com/RadeonOpenCompute/ROCm/issues/525 )


註:
我是有一張Vega 56啦,之前買來挖礦,但目前拿來打電動比較實在。
跑實驗還是用1080ti

--

All Comments

Audriana avatarAudriana2019-01-08
HBCC才是重點 一天到晚卡在VRAM不夠
Mason avatarMason2019-01-10
470跑過,不錯玩XD
Megan avatarMegan2019-01-14
Vega 10是14nm吧
Ophelia avatarOphelia2019-01-16
看目的是要跑ml 還是幫AMD debug
Emily avatarEmily2019-01-18
這樣看來 追趕的速度看起來還滿快的
Jake avatarJake2019-01-21
看著HBCC流口水~
Gary avatarGary2019-01-22
再等一年吧,等學術單位和雲端商幫AMD debug完
Ula avatarUla2019-01-27
7nm Vega Mi60可能會比 Nvidia V100 便宜蠻多的
或許會有雲端商考慮用 2nd source
Caitlin avatarCaitlin2019-01-31
為何聽起來被你說的 amd在做碼農的工作
Ida avatarIda2019-02-02
都西元幾年了還在一戰的水準
Oliver avatarOliver2019-02-04
cuda從無到有也沒東西抄吧,哪來的碼農當
Dorothy avatarDorothy2019-02-07
非開源的,AMD得自己搞,只是讓他功能類似
Agatha avatarAgatha2019-02-10
讓用戶換平台可以盡量無痛切換
Elizabeth avatarElizabeth2019-02-12
我都直接用原生 opencl 的 lib ,沒有就自己寫
沒遇過問題
Tristan Cohan avatarTristan Cohan2019-02-16
好奇查了一下在做 ROCm <-> tensorflow 的開發者
Rae avatarRae2019-02-19
之一似乎也是台灣人 @@! https://goo.gl/SoFkEo