相关文章推荐
任性的数据线  ·  CVE-2020-14386 POC复现 ...·  5 月前    · 
奔跑的小虾米  ·  Flutter initState ...·  11 月前    · 
兴奋的沙滩裤  ·  Android ...·  1 年前    · 

为什么需要中心像素点?因为中心像素点有以下两点左右:

  • 确定局部卷积后要更新的像素点位置。如下图的卷积操作,中心像素的位置对应着当前卷积操作wx+b的值要赋给那个位置。如果卷积核是偶数,中心位置有四个像素。一种可能的解决方式是同时更新这四个像素的值,但这样会增加计算量。同时以步长stride=1移动卷积核时,会覆盖之前的值,造成计算浪费。
  • 便于进行卷积操作,以中心点移动卷积核,(这点好像有点牵强,以左上角或右下角任一点像素也可移动卷积核)

2、奇数的卷积核便于图像进行对称的补0padding

卷积有好几种方式如valid,same。其中same卷积的方式如上面卷积示例图所示,是为了保持卷积后特征图大小不变,在卷积操作进行前先在图像的周围补0。假设卷积前特征图大小为m,卷积核大小为k,那么正常情况下卷积后特征图大小n应该为m-k+1。既

为了使卷积后特征图大小保持不变,在卷积前把特征图的尺寸增大k-1。然后在进行卷积操作。此时

也就是卷积操作前后特征图大小相等。

为了使特征图增大k-1。通常使用的方式是在图像周围补0。如果卷积核的大小是奇数,则k-1为偶数。则可以在图像两侧进行对称的padding。左右上下各补充(k-1)/2。

CNN的卷积核大小都是奇数而没有偶数主要有以下两点原因:1、奇数卷积核有中心像素点如下图中,奇数大小的卷积核有唯一的中心像素点,而偶数大小的卷积核没有中心像素点 为什么需要中心像素点?因为中心像素点有以下两点左右:确定局部卷积后要更新的像素点位置。如下图的卷积操作,中心像素的位置对应着当前卷积操作wx+b的值要赋给那个位置。如果卷积核是偶数,中... 知乎-为什么 CNN 中的 卷积核 一般都是 奇数 奇数 ,没有偶数偶数的? 深度学习: 卷积核 为什么都是 奇数 size 【AI-1000问】为什么 CNN 中的 卷积核 半径都是 奇数 ? 主要有两点原因: 1.便于进行padding。 在卷积时,若要卷积前后的尺寸不变。需要对原图进行padding。 假设图像的 大小 ,也就是被卷积对象的 大小 为n∗nn*nn∗n, 卷积核 大小 为k∗kk*kk∗k 当paddin...
卷积神经网络(ConvolutionalNeuralNetwork, CNN )是一种前馈神经网络,在计算机视觉等领域被广泛应用.本文将简单介绍其原理并分析Tensorflow官方提供的示例.关于神经网络与误差反向传播的原理可以参考作者的另一篇博文BP神经网络与Python实现.卷积是图像处理中一种基本方法. 卷积核 是一个f*f的矩阵.通常n取 奇数 ,使得 卷积核 有中心点.对图像中每个点取以其为中心的f阶方阵,将该方阵中各值与 卷积核 中对应位置的值相乘,并用它们的和作为结果矩阵中对应点的值.1*1+1*0+1*1+0*0+1*1+1*0+0*1+0*0+1*1=4 卷积核 每次向右移动1列,遇行末向下移动1列
1,为了方便same padding时的处理。如步长为1时,要补充k-1的zero padding才能使输出输出的尺寸一致,这时候如果核 大小 k是偶数,则需要补充 奇数 的zero padding,不能平均分到feature map的两侧。 padding时对称:保证了 padding 时,图像的两边依然相 对称 。 在卷积时,我们有时候需要卷积前后的尺寸不变。这时候我们就需要用到padding。假设图像的 大小 ,也就是被卷积对象的 大小 为nn, 卷积核 大小 为kk,padding的幅度设为(k-1)/2时,卷积后的输
在跑一份代码时,效果一直提升不上去,偶然将3 * 3的 卷积核 换成了4 * 4的 卷积核 ,效果奇佳,于是搜索了一下 卷积核 大小 对网络性能的影响,总结如下: 1.大 卷积核 和小 卷积核 显然,大 卷积核 的感受野更大,自然提取特征的性能更好,一个5 * 5的 卷积核 可以由两个3 * 3的 卷积核 替换,但是带来的代价是:大 卷积核 的计算速度更慢,参数量更多。因此,通常使用小 卷积核 ,小 卷积核 所需要的参数量更少,且产...
为什么 卷积核 size通常都是 奇数 本博客用于自我学习,如有错误,烦请指教! 在卷积神经网络模型中 卷积核 大小 一般都是偶数,很少有 奇数 或者没有 奇数 卷积核 ,这是为什么呢? LeNet() 卷积核 大小 55,AlexNet模型(2012)中用到1111,55,33,VGG(2014)系列用得都是33 大小 卷积核 ,ResNet(2015)使用33 大小 卷积核 等等,都是使用 奇数 卷积核 。 原因有2: 1. 保证锚点在中间 锚点也就是 卷积核 滑动时得中心点,一个参考点, 奇数 大小 卷积核 刚好是中心位置,避免位置信息发生偏移,在CN
为什么 CNN 中的 卷积核 一般都是奇 奇数 * 奇数 ,没有偶数*偶数的? 咱们经常见到的多为 3 * 3、5*5;怎么从来没有见过 4*4,6*6 之类的 卷积核 ?无论 奇数 or 偶数,都是能够做卷积的呀 之前学习的时候真的没有想过这些问题,再复习时,觉得全是 Why?说明之前还是没有搞明白 从AlexNet模型的11*11、5*5、3*3,还有V...