想組一台學習機,顯卡怎麼選擇? - 3C

Table of Contents


gigayaya : 有沒有考慮2070? 沒用過但感覺tensor core很猛 12/13 17:58
gigayaya : https://goo.gl/dE8G9q 12/13 18:02

我覺得可以ㄟ,比1080Ti更值得我考慮?!感謝gigayaya提供的連結
※ 編輯: virginbear (114.27.40.73), 12/13/2018 19:34:50

原文多數內容恕刪,講到2070我就一定要路過一下....

千萬不要在這時候入手2070 -> 如果你想要拿來玩Deep Learning

我就是苦主之一 一路從 16.04 -> 18.04

中間各種try and error, 包含把16.04的kernel玩壞還難以搞定的狀況

基本上RTX系列因為硬體太新, 很多cuda支援性的問題

不是說裝不成, 是非常複雜會弄到想哭

--

搞了一個多月終於在昨天把tensorflow build起來沒有再出現奇怪的錯誤
(雖然通常立了這個flag代表我很快就要繼續除錯了...)

不過除非你想當個先驅者,

帶領著眾人殺出一個stable版本真正支援RTX series的

不然不要輕易嘗試, 目前支援度很差, 用RTX系列以外的顯卡穩跑比較實在

有興趣可以google tensorflow cuda10 第一篇文

目前在github上滿滿的先驅者, 當然最後都有build成功啦! 我也是其中之一

不過我必須說這過程非常痛苦 如果你只是想要好好地玩DL

不是浪費一大堆時間在 build from source 我相當不推薦你買RTX系列的顯卡

因為網路上的教學文包含那篇github寫的通通都沒法一次到位

--

當然如果你要拿來打電動我就沒意見了

僅針對目前RTX系列各種DL的支援性做評論

目前是沒有穩定版本的DL相關 支援RTX系列的

windows跟linux都沒有

以上資訊供你參考!

當然, 歡迎一起加入除錯的行列XDDDDDDDDDDDD


--

All Comments

Candice avatarCandice2018-12-17
有沒有考慮2070? 沒用過但感覺tensor core很猛
Barb Cronin avatarBarb Cronin2018-12-20
Damian avatarDamian2018-12-21
感謝分享,目前沒有打算當除蟲大隊的一員,我還是
Robert avatarRobert2018-12-25
乖乖拿GTX好了 XD
Callum avatarCallum2018-12-27
嗯嗯 初學還是不要花太多時間在環境建置上 趕快把
基本架構搞定 跟自己的研究接軌才是真的
Cara avatarCara2018-12-30
搭配半年內上市的硬體大部分都是在開路的...1070的
時候也是
Mason avatarMason2019-01-02
不過RTX有個重點是NVlink可以把VRAM合併 雖然2070也
沒得用NVlink
Necoo avatarNecoo2019-01-06
先行者 致敬
Annie avatarAnnie2019-01-09
RTX的NVlink並沒有合併VRAM的功能
https://www.reddit.com/r/deeplearning/comments/9
jcyln
Hedda avatarHedda2019-01-10
Lucy avatarLucy2019-01-10
仔細看清楚內文 我認為是Driver問題比較大
Hedda avatarHedda2019-01-14
Windows下P2P比較奇怪 但還是能用V-Ray那種自己高度
Rebecca avatarRebecca2019-01-14
控管的方式去合併成虛擬的 Linus下就正常很多
Harry avatarHarry2019-01-15
https://bit.ly/2RYoQju 重點還是高頻寬帶來的效益
Erin avatarErin2019-01-19
讓他去讀另一張卡的VRAM速度是OK的
Skylar DavisLinda avatarSkylar DavisLinda2019-01-22
只是軟體目前應該沒包得很好 可能會比較辛苦一點
Brianna avatarBrianna2019-01-25
V-Ray做法可以參考這篇 https://bit.ly/2ElAam5
Jake avatarJake2019-01-28
你的「合併」指的是可以存取另一張卡VRAM裡面的資料
http://i.imgur.com/00TbjzO.jpg
留言第一篇就是我的「合併」的意思
真的變成11+11=22然後train需要22GB的model
Kinghorn直接回他沒測這個,他依然是用平分batch的
方式在使用多張GPU
Una avatarUna2019-02-02
你自己看清楚 UMA是有支援的 基本上整體而言就是
Driver跟軟體到底有沒有配合好而已 目前的階段要
Ingrid avatarIngrid2019-02-06
到無腦什麼都不改直接22G model可以塞進去可能沒辦
法而已
Todd Johnson avatarTodd Johnson2019-02-07
我當然能理解最理想就像Vray那樣幫你把底層的髒東西
Jacky avatarJacky2019-02-11
處理好好 接上去就直接看起來像22G
不過目前Driver或框架可能還沒做到這麼理想 但軟體
的東西都有機會慢慢改 硬體跑不到才是沒救
Suhail Hany avatarSuhail Hany2019-02-15
你想要的合併基本上就是UMA+P2P 先把22G同一定址
再來用P2P的速度才不會被拖累太誇張 但目前看起來
Frederica avatarFrederica2019-02-16
可能沒有人把她包的好好的 到底該Driver來做還框架
Emma avatarEmma2019-02-19
做就有得討論了 基本上之前Volta太貴 硬體有的人不
多 可能比較少人去針對這個處理 但這次下放到消費級
我認為軟體完善是遲早的
Kelly avatarKelly2019-02-24
396 driver+cuda 9.0+ubuntu 18.04穩
Megan avatarMegan2019-02-28
用新driver 4xx可能反而會有問題
Damian avatarDamian2019-03-03
等4xx+cuda 10+ubuntu18.04穩了再說
Jake avatarJake2019-03-07
2080 2070應該只能用新driver
Franklin avatarFranklin2019-03-08
對啊! 396會無法辨識2070 2080