關於機器學習工作站 - 3C

Table of Contents

最近要幫實驗室添購一台做ML用的工作站
不想給廠商賺 想自己開菜單去買零件
"可能"有預算問題 加上已有其他台主機
所以GPU上可能不會上到2080Ti

目前的想法是1080Ti兩張
兼具Vram容量和效率的考量
但是查了一下網路資訊 說2070在ML的性價比很高
可是Vram真的有點少 跑個bert就炸了

另外再請教一下工作站CPU的選擇
A家最近是不是有點起色 不知道可不可以選擇
有點不太清楚現在規格 對工作站需求也不是很了解

希望各位給點建議 謝謝

--
posted from android bbs reader on my Nokia 3310

--

All Comments

Caroline avatarCaroline2019-04-30
AWS?
Linda avatarLinda2019-05-03
可是1080ti的vram還是比2070大,這就看你需求了吧
Sierra Rose avatarSierra Rose2019-05-07
要看你對工作站的定義 是很強的一般PC 還是要像Rack
server
Elvira avatarElvira2019-05-11
這你可以跟你們老闆討論吧? 為什麼要省這種錢啊?
Zanna avatarZanna2019-05-15
A家就epyc吧,好像有越來越多人採用? 不清楚
Yuri avatarYuri2019-05-19
HP DELL的server都有開始採用A家的Epyc AWS也有
Joe avatarJoe2019-05-22
這種就用一般PC來看就好 只是規格比較強
Steve avatarSteve2019-05-23
先講預算啊,窮人哪買的起epyc
Eden avatarEden2019-05-26
如果是沒錢才來做軟體研究的話就拿一般dt配兩張2070
Oliver avatarOliver2019-05-29
nvlink可以把vram串起來用
Dorothy avatarDorothy2019-05-31
絕對比單卡的ram還多
Anthony avatarAnthony2019-06-01
2070 nvlink 可以 share memory? 我以為只有 V100
可以@@
Anthony avatarAnthony2019-06-02
欸2070沒金手指厚,我錯了,要2080以上
Tristan Cohan avatarTristan Cohan2019-06-06
專業卡的NVlink接口是兩組 一般遊戲卡一組而已還只
有2080/Tiㄘㄞㄧㄡ
Lucy avatarLucy2019-06-09
其實最常壞掉的是電源,可惜土砲買不到太好的
Connor avatarConnor2019-06-14
消費級的產品你買船也是沒多久就沉了
Delia avatarDelia2019-06-17
2080ti可以share memory? 不行吧
Margaret avatarMargaret2019-06-18
有差
Sierra Rose avatarSierra Rose2019-06-18
可以選X399, X299
Robert avatarRobert2019-06-19
據說用pytorch bert的ram少用很多
Sarah avatarSarah2019-06-20
你是說base吧 large一樣炸啊 batch size 4勉強可以
慢的跟烏龜一樣
Ophelia avatarOphelia2019-06-24
自己想維修給個推
Daniel avatarDaniel2019-06-27
有差 但其實差沒很多 雙X8夠用了
Jack avatarJack2019-06-28
dl PCI E雙8x應該就夠用
Jack avatarJack2019-06-29
deep learning不用nvlink也可以兩張一起跑