原标题:当HPC碰撞AI |“深度学习理论与实战及GPU高性能计算解决方案应用”高级培训班

想搞清楚如何优化矩阵乘法和卷积吗?如何用CPU+GPU加速你的程序?学完本次课程,你会找到答案...

AI(Artificial Intelligence,人工智能)

DL(Deep Learning,深度学习)

ML(Machine Learning,机器学习)

高性能计算(High Performance Computing, HPC)

并行计算(Parallel Computing)

超级计算(supercomputing)

E级计算(Exascale computing)

异构计算(Heterogeneous computing)

GPU通用计算

(GPGPU,General PurposeGPU,CUDA,OpenCL,OpenACC)

并行计算基础(MPI,OpenMP,Pthread)

加速卡(CPU,GPU,APU,FPGA,MIC)

深度学习DL和人工智能AI是当下最炙手可热的技术趋势,将成为技术行业基础设施的核心组成部分。

深度学习训练需要大量的计算资源,GPU目前是深度学习最常使用的计算加速硬件。相对于CPU来说,GPU更便宜(达到同样的计算能力GPU一般便宜10倍),而且计算更加密集(一台服务器可以搭配1/2/4/8/16块GPU),深度学习时代,训练过程,GPU为主CPU为辅。主流的深度学习评测benchmark,都聚焦用GPU来做测试,用CPU对比已经没有太大意义。

GPU的价值不止体现在深度学习,在高性能计算、物联网、人工智能、生物信息、分子模拟、计算化学、材料力学、系统仿真、流体力学、机械设计、生物制药、航空动力、地质勘探、气候模拟等领域,算法越来越复杂,需要处理的海量数据越来越巨大,高性能计算能力就显得尤为重要。GPU 高性能计算程序设计最大限度的利用硬件资源,提高了计算能力,降低时间成本,加速研发进度。

深度学习网络的计算里,最关键的是两种计算:如果是一个全连接层,它的计算主要是矩阵乘法;如果你是卷积层,核心计算是卷积计算。主流的深度卷积网络里,超过80%的计算源于卷积计算,一般的深度网络在最后一两层才用到全连接层,所以这个卷积操作其实是深度学习里最关键的核心技术。

NVIDIA针对深度学习的计算,有一套完整的解决方案,cuDNN已经成为主流深度学习框架调用的深度学习GPU函数库,包含完整的矩阵乘法和卷积计算的实现,但并不开源。

想搞清楚如何优化矩阵乘法和卷积吗?

如何用CPU+GPU加速你的程序?

学完本次课程,你会找到答案。

之前培训照片

主讲专家

主讲专家来自中科院及高校的深度学习和高性能计算高级专家,拥有丰富的科研及工程技术经验,长期从事计算领域国家重大项目研究,具有资深的技术底蕴和专业背景。

培训目标:

通过讲授机器学习和深度学习理论及算法,让学员对机器学习、深度学习技术方法有深入的理解,同时学习深度学习开源平台的开发方法,学习并实践深度学习GPU计算解决方案。

培训对象:

院校计算机专业、网络通信专业、电子工程专业、信息计算科学专业、统计学专业等对AI /深度学习技术及研发感兴趣的老师、研究生等。相关从事大数据、数据挖掘、机器学习、计算视觉、自然语言处理、人机交互等领域研发的单位的技术部门、IT企业的工程师、研发负责人、算法工程师等。

培训方式:

1、培训讲座;

2、高性能计算环境下的上机实操

3、专题小组研讨与案例讲解分析结合;

培训课程:

学员经培训考试合格后可以获得:由中国科学院计算技术研究所烟台分所颁发的培训证书。

注:请学员带身份证复印件一张。请自带笔记本电脑。

中国科学院计算技术研究所烟台分所

烟台中科网络技术研究所

北京中科云畅应用技术研究院

培训时间地点

2017年10月27日 — 2017年10月 30日

济 南(第一天报到,培训三天)

每人 3900元(含报名费、培训费、资料费)

食宿可统一安排,费用自理。

报名方式如下

1.报名邮箱:Karena@cudatek.com

2.关注微信号:cudatek 后台报名

3.报名电话:021-54181199

报 名 者 打 9折 优 惠!!! 返回搜狐,查看更多

责任编辑:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。