PP-LCNet: A Lightweight CPU Convolutional Neural Network PP-LCNet Baidu论文链接: https://arxiv.org/abs/2109.15099一、 Problem Statement大部分目前的轻量型网络都是基于ARM结构设备所开发的,很少网络会考虑到在Intel CPU上的运行速度。因此本文提出了三个问题:怎么样提升网络,使得可以学习更强的特征表示能力,且不增加迟滞性。什么东西可以在CPU上,使得一些轻量化模型的精
一、
PP
-
LCNet
: 一个轻量级的卷积
神经网络
我们提出了一个基于MKLDNN加速策略的轻量级卷积
神经网络
,叫做
PP
-
LCNet
,他是一个能够用于多任务的轻量级模型。这篇
论文
提出了一些能在保持延迟不变的情况下提高模型准确率的方法。在这些优势的加持下,
PP
-
LCNet
与之前预测速度差不多的模型相比更加准确。对于
计算机视觉
的一些下流任务(指具体应用),比如目标检测、语义分割等,该模型效果也很好。我们的实验是基于PaddlePaddle实现的可以直接在飞桨查看相关的项目事例。
二、模型提出的原因
轻量级网络模型
前段时间看到了百度新出的一篇
论文
,提出了一种基于MKLDNN加速策略的轻量级CPU网络,即
PP
-
LCNet
,它提高了轻量级模型在多任务上的性能,对于
计算机视觉
的下游任务,如目标检测、语义分割等,也有很好的表现。以下是
论文
链接和开源的基于PaddlePaddle的实现。
arXiv: https://arxiv.org/pdf/2109.15099.pdf
code: https://github.com/PaddlePaddle/PaddleClas
论文
很短,模型结构也十分简洁,没有特别创新的部
PP
-
LCNet
: A Lightweight CPU Convolutional Neural Network
???? PDF Link ???? Github Code
Section 1 介绍
随着模型参数和FLOPs的加大,模型越来越难以在基于ARM架构的移动端设备或者x86架构的CPU上取得较快的推理速度。虽然有许多优秀的移动端网络被设计出来,但是由于MKLDNN的限制,网络的推理加速效果并不理想。本文重新考虑了轻量级模型的构成,尤其是我们考虑了三个基础问题:
在不增加网络延时的前提下,如
提出了一个基于MKLDNN加速策略的轻量级CPU网络,命名为
PP
-
LCNet
,它提高了轻量级模型在多任务上的性能。
本文列出了可以在延迟几乎不变的情况下提高网络准确性的技术。通过这些改进,
PP
-
LCNet
在相同的分类推理时间下,准确率可以大大超过以前的网络结构。如下图所示,它优于最先进的模型。并且对于
计算机视觉
的下游任务,也表现非常出色,比如物体检测、语义分割等。
所有的实验都是基于Padd
论文
名称:
PP
-
LCNet
: A Lightweight CPU Convolutional Neural Network
作者:Cheng Cui, Tingquan Gao, Shengyu Wei,Yuning Du…
Code:https://github.com/PaddlePaddle/PaddleClas
总结了一些在延迟(latency)几乎不变的情况下精度提高的技术;
提出了一种基于MKLDNN加速策略的轻量级CPU网络,即
PP
-
LCNet
。
本文提出了一种基于MKLDNN加速策略的轻量级CPU网络,称为
PP
-
LCNet
。它提高了轻量级模型在多个任务上的性能。本文列出了在延迟几乎恒定的情况下提高网络精度的技术。通过这些改进,
PP
-
LCNet
的精度在相同的推理时间,可以大大超过以前的网络结构。
由图1可以看出,
PP
-
LCNet
精度提升且比MobileNetV3快3倍!
现有问题:随着...
本文提出了一种基于MKLDNN加速策略的轻量级CPU网络,即
PP
-
LCNet
,它提高了轻量级模型在多任务上的性能,对于
计算机视觉
的下游任务,如目标检测、语义分割等,也有很好的表现。
随着模型特征提取能力的提高及其模型参数和FLOPS数量的增加,在基于ARM架构的移动设备或者基于x86架构的cpu设备上实现快速推理变得困难.在这种情况下,已经提出了许多优秀的Mobile网络 ,但是由于MLKDNN的限制,这些网络的速度在启动MKLDNN的Interl CPU上并不理想.
在本文中,作者重新思考了在I