为了设计快速神经网络,许多工作都专注于减少浮点运算(FLOPs)的数量。然而,我们观察到这样的flop减少并不一定会导致类似水平的延迟减少。这主要源于低效的低浮点运算每秒(FLOPS)。为了实现更快的网络,我们重新考察了流行的运算符,并证明了这样低的FLOPS主要是由于运算符频繁的内存访问,特别是深度卷积。因此,我们提出了一种新的部分卷积(PConv),通过同时减少冗余计算和内存访问,更有效地提取空间特征。
本文采用了一种具有跳跃连接的U-Net
网络
,其中所有标准
卷积
层都被提出的局部
卷积
层所替代。如果你对他们的
网络
架构感兴趣,你可以参考论文(https://arxiv.org/pdf/1804.07723.pdf),他们提供了详细的模型表。
有趣的是,在这项工作中没有使用鉴别器。除了..
号称秒杀PS的AI图像修复神器,来自于Nvidia 研究团队。引入了局部
卷积
,能够修复任意非中心、不规则区域),代码还没有放出来,但是github上已经有大神复现论文了,今天主要基于github源码进行
部分
操作和结果展示。
近
年
来流行的
卷积
神经网络
前面几讲,我们以LeNet和AlexNet为例,详细讲解了
卷积
神经网络
的结构。从2012
年
AlexNet在ImageNet数据集上获得
远超
传统算法识别率以来,学术界在
卷积
神经网络
方面进行了一系列改进型研究工作,这一讲我们将描述这些重要的改进。
下图是截至2015
年
卷积
神经网络
的发展图。
图1 各种不同
网络
在ImageNet上的结果
2012
年
AlexNet将ImageNet数据集的Top5错误率降低到16.4%。
2014
年
VGGNet和GooleNet分别将Top5错误率降低到