30 个回答
以前在大学一个实验室就几块GPU
十几个PhD一起用
有时还有几个Master学生来抢“资源”
现在到了业界
德国某车厂自动驾驶部门机器学习组
总算翻身作主人了!!!
以下show case我们group的基本配置
1. GPU
这个不多解释了,深度学习训练、推断都在GPU上跑
动辄几万张图片的数据库,训练起来快则十几个小时,慢则几周
如果GPU配置不行,以上时间再以几何倍数翻番
GPU内存大学决定了Batch Size(同时训练时间)
价格1000刀/块
显存11GB
人手俩块
组里俩位“资深”同事用的3400美元一块的TITAN V
显存12GB
640 TENSOR CORES
同样是俩块
另外还有16个GPU的cluster
2. CPU、内存
深度学习需要做一些预处理、后处理
这些还是在CPU上完成的
图片从硬盘导入GPU训练,需要通过RAM
CPU核数:32核
内存RAM:64GB
3. 硬盘
用来存储海量训练和Validating 开源Data set,和公司自己的set
以及,硬盘读取速度也一定程度决定了RAM、GPU的读图速度
(这个忘了截图了,本地硬盘应该是1-2TB吧,外加cluster)
4. 主机
这块不是很熟,毕竟不是自己组装的电脑
不过大小确实比较impressive~
5. 结语
深度学习需要深度调参
以及调网络架构这个乐高模块
每调一个参数或架构便需要一次完整的训练(1-N天)
深度学习时代,得GPU者得天下(参考Google那些暴力paper)
欢迎在留言区报告你所在组的电脑配置,以及组里多少人share~
利益相关:
知乎Live语音直播:
我(打酱油)与牛津大学实验物理博士,牛津大学某CV Lab(世界Top计算机视觉Lab)医学图像博士后联合主讲~欢迎各位捧场~
Live中我还会分享中国和德国运筹学、AI就业的一些经验,欢迎探讨。
也欢迎乐于分享的朋友联系我们(公众号: 『运筹OR帷幄』 ),商讨合作举办live。
更多人工智能、数据科学干货,敬请关注:
关注同名公众号『运筹OR帷幄』,后台回复“ 加微信群 ”,加入近1w名成员的全球人工智能硕博学者群~