为什么需要中心像素点?因为中心像素点有以下两点左右:
-
确定局部卷积后要更新的像素点位置。如下图的卷积操作,中心像素的位置对应着当前卷积操作wx+b的值要赋给那个位置。如果卷积核是偶数,中心位置有四个像素。一种可能的解决方式是同时更新这四个像素的值,但这样会增加计算量。同时以步长stride=1移动卷积核时,会覆盖之前的值,造成计算浪费。
-
便于进行卷积操作,以中心点移动卷积核,(这点好像有点牵强,以左上角或右下角任一点像素也可移动卷积核)
2、奇数的卷积核便于图像进行对称的补0padding
卷积有好几种方式如valid,same。其中same卷积的方式如上面卷积示例图所示,是为了保持卷积后特征图大小不变,在卷积操作进行前先在图像的周围补0。假设卷积前特征图大小为m,卷积核大小为k,那么正常情况下卷积后特征图大小n应该为m-k+1。既
为了使卷积后特征图大小保持不变,在卷积前把特征图的尺寸增大k-1。然后在进行卷积操作。此时
也就是卷积操作前后特征图大小相等。
为了使特征图增大k-1。通常使用的方式是在图像周围补0。如果卷积核的大小是奇数,则k-1为偶数。则可以在图像两侧进行对称的padding。左右上下各补充(k-1)/2。
CNN的卷积核大小都是奇数而没有偶数主要有以下两点原因:1、奇数卷积核有中心像素点如下图中,奇数大小的卷积核有唯一的中心像素点,而偶数大小的卷积核没有中心像素点 为什么需要中心像素点?因为中心像素点有以下两点左右:确定局部卷积后要更新的像素点位置。如下图的卷积操作,中心像素的位置对应着当前卷积操作wx+b的值要赋给那个位置。如果卷积核是偶数,中...
知乎-为什么
CNN
中的
卷积核
一般都是
奇数
奇数
,没有偶数偶数的?
深度学习:
卷积核
为什么都是
奇数
size
【AI-1000问】为什么
CNN
中的
卷积核
半径都是
奇数
?
主要有两点原因:
1.便于进行padding。
在卷积时,若要卷积前后的尺寸不变。需要对原图进行padding。
假设图像的
大小
,也就是被卷积对象的
大小
为n∗nn*nn∗n,
卷积核
大小
为k∗kk*kk∗k
当paddin...
卷积神经网络(ConvolutionalNeuralNetwork,
CNN
)是一种前馈神经网络,在计算机视觉等领域被广泛应用.本文将简单介绍其原理并分析Tensorflow官方提供的示例.关于神经网络与误差反向传播的原理可以参考作者的另一篇博文BP神经网络与Python实现.卷积是图像处理中一种基本方法.
卷积核
是一个f*f的矩阵.通常n取
奇数
,使得
卷积核
有中心点.对图像中每个点取以其为中心的f阶方阵,将该方阵中各值与
卷积核
中对应位置的值相乘,并用它们的和作为结果矩阵中对应点的值.1*1+1*0+1*1+0*0+1*1+1*0+0*1+0*0+1*1=4
卷积核
每次向右移动1列,遇行末向下移动1列
1,为了方便same padding时的处理。如步长为1时,要补充k-1的zero padding才能使输出输出的尺寸一致,这时候如果核
大小
k是偶数,则需要补充
奇数
的zero padding,不能平均分到feature map的两侧。
padding时对称:保证了 padding 时,图像的两边依然相 对称 。 在卷积时,我们有时候需要卷积前后的尺寸不变。这时候我们就需要用到padding。假设图像的
大小
,也就是被卷积对象的
大小
为nn,
卷积核
大小
为kk,padding的幅度设为(k-1)/2时,卷积后的输
在跑一份代码时,效果一直提升不上去,偶然将3 * 3的
卷积核
换成了4 * 4的
卷积核
,效果奇佳,于是搜索了一下
卷积核
的
大小
对网络性能的影响,总结如下:
1.大
卷积核
和小
卷积核
显然,大
卷积核
的感受野更大,自然提取特征的性能更好,一个5 * 5的
卷积核
可以由两个3 * 3的
卷积核
替换,但是带来的代价是:大
卷积核
的计算速度更慢,参数量更多。因此,通常使用小
卷积核
,小
卷积核
所需要的参数量更少,且产...
为什么
卷积核
size通常都是
奇数
本博客用于自我学习,如有错误,烦请指教!
在卷积神经网络模型中
卷积核
大小
一般都是偶数,很少有
奇数
或者没有
奇数
得
卷积核
,这是为什么呢?
LeNet()
卷积核
大小
55,AlexNet模型(2012)中用到1111,55,33,VGG(2014)系列用得都是33
大小
卷积核
,ResNet(2015)使用33
大小
卷积核
等等,都是使用
奇数
得
卷积核
。
原因有2:
1. 保证锚点在中间
锚点也就是
卷积核
滑动时得中心点,一个参考点,
奇数
大小
的
卷积核
刚好是中心位置,避免位置信息发生偏移,在CN
为什么
CNN
中的
卷积核
一般都是奇
奇数
*
奇数
,没有偶数*偶数的?
咱们经常见到的多为 3 * 3、5*5;怎么从来没有见过 4*4,6*6 之类的
卷积核
?无论
奇数
or 偶数,都是能够做卷积的呀
之前学习的时候真的没有想过这些问题,再复习时,觉得全是 Why?说明之前还是没有搞明白
从AlexNet模型的11*11、5*5、3*3,还有V...