搞深度学习,是买一个RTX3090还是两个RTX3080?

想配置一个深度学习服务器,预算有限,想知道两种方案怎么选合适
关注者
150
被浏览
373,284

28 个回答

看任务或者用机器的人能不能并行

如果有多个使用者,或者一个人同时进行多个模型的训练(parameter search),无脑3080,GPU任务调度会很折损性能,例子:

同时跑两个任务(单个任务不满载,70%),不如等一个跑完再跑另一个

如果是单一模型 ,考虑双卡3080分布式计算

我有两种猜想

  1. 代码能力超强,随时手动改分布式,注意,并不是DataParallel(DP),而是DistributedDataParallel(DDP)
  2. 没有写过分布式:)

除了大佬组release的code,基本都是单机单卡,双卡3080可能可以同时做多个parameter search,除此之外,我想不到任何情况3080*2的优势,哪怕是DDP的性能折算之下,可能也只是打平3090。


更新一下,pytorch_lightning 大法好!(本地单机,随手改多机多卡,本地小卡写demo跑通,拉到服务器直接多机多卡跑起来