在达到相同感受野的情况下,卷积核越小,所需要的参数和计算量越小。
具体来说。卷积核大小必须大于1才有提升感受野的作用,1排除了。而大小为偶数的卷积核即使对称地加padding也不能保证输入feature map尺寸和输出feature map尺寸不变(画个图算一下就可以发现),2排除了。所以一般都用3作为卷积核大小。

每一层卷积有多少channel数,以及一共有多少层卷积,这些暂时没有理论支撑,一般都是靠感觉去设置几组候选值,然后通过实验挑选出其中的最佳值。这也是现在深度卷积神经网络虽然效果拔群,但是一直为人诟病的原因之一。
多说几句,每一层卷积的channel数和网络的总卷积层数,构成了一个巨大的超参集合,这个超参集合里的最优组合,很可能比目前业界各种fancy的结构还要高效。只是我们一来没有理论去求解这个超参集合里的最优,二来没有足够的计算资源去穷举这个超参集合里的每一个组合,因此我们不知道这个超参集合里的最优组合是啥。

现在业界里提出的各种fancy结构中不少都是不断trial and error,试出来一个效果不错的网络结构,然后讲一个好听的story,因为深度学习理论还不够,所以story一般都是看上去很美,背后到底是不是这回事只有天知道。比如好用到不行的batch norm,它的story是解决internal covariate shift,然而最近有篇文章How Does Batch Normalization Help Optimization? (No, It Is Not About Internal Covariate Shift)通过实验证明实际情况并不如此。

https://arxiv.org/abs/1805.11604

推荐一篇讲如何设计CNN网络的文章A practical theory for designing very deep convolutional neural networks。

https://kaggle2.blob.core.windows.net/forum-message-attachments/69182/2287/A%20practical%20theory%20for%20designing%20very%20deep%20convolutional%20neural%20networks.pdf

深度学习如何调参

调参就是trial-and-error. 没有其他捷径可以走. 唯一的区别是有些人盲目的尝试, 有些人思考后再尝试. 快速尝试, 快速纠错这是调参的关键.

首先说下可视化:
我个人的理解, 对于可视化, 更多的还是帮助人类以自己熟悉的方式来观察网络. 因为, 你是不可能边观察网络, 还边调参的. 你只是训练完成后(或者准确率到达一个阶段后), 才能可视化. 在这之前, 网络没有学习到良好的参数, 你可视化了也没意义, 网络达到不错的准确率了, 你看看其实也就听个响. 同样, 你的网络训练的一塌糊涂, 你可视化也没什么意义, 唯一能够看到的就是中间结果乱七八糟, 或者全黑全白, 这时候你直接看最后准确率就可以知道这网络没救了.

关于权重的可视化Visualize Layer Weights(现在是否强求smooth其实意义不大, 这个后面说.):
同样, 你看到一个不满足平滑结果的图像, 你知道, 这网络训练的不好, 但是为什么呢? 是数据不好? 没有预处理? 网络结构问题? Learning Rate太大或者太小? 或者就是差了一个LRN层(之前我就遇到, 加个LRN就能出smooth的weights, 当然这其实和预处理有关)?

Smooth是需要看一下的, 心里有个数. 但是具体调参怎么调是没辙的. 第一, 你不可能告诉网络, 这层你得学个边界检测的功能出来. 第二, 不同任务下会有不同的weights(虽然底层的特征有很大的通用性), 你觉得你凭什么来指导一个看图片比你快得多的机器?

再说现在是否需要强求smooth. 现在的趋势是鼓励使用小filter, 3x3大小, 多加层次(这样, 非线性更好点). 换句话说, 3x3的图片, 总共才9个像素, 你怎么判断smooth与否呢? 当然如果你使用大的filter, 一般5x5往上, 运气不差的话, 你是可以看到smooth的结果的.

咱们再说另外一个极端, 一个网络,运行的完美(满足应用要求就算完美), 打开一看, 这weights不smooth啊. 你告诉我, 你打算怎么办? 没错, 具有不平滑的权重的网络同样可以获得很好的结果(这种情况我都习以为常了).

那么可视化网络就不重要了?
非常重要, 但是不在训练这块, 而是帮助理解网络的原理这块. 理解网络原理后, 你才能在设计结构的时候心里有感觉(只是有感觉而已), 网络出了问题, 或者在某些情况下不满意, 有更好的直觉去调整.(没错, 只是直觉, 虽然有些情况下的调整从网络原理来看逻辑上应该可以工作, 但是人家就是不工作, 你能咬机器去么?)

那么怎样训练一个不错的网络呢?
这是一个很好的链接, 说明了如何从零开始不断的trial-and-error(其实这里面没遇到什么error):
Using convolutional neural nets to detect facial keypoints tutorial

http://danielnouri.org/notes/2014/12/17/using-convolutional-neural-nets-to-detect-facial-keypoints-tutorial/

对于调参我自己的经验, 有下面这些:

基本原则:快速试错

一些大的注意事项:

1.刚开始, 先上小规模数据, 模型往大了放, 只要不爆显存, 能用256个filter你就别用128个. 直接奔着过拟合去. 没错, 就是训练过拟合网络, 连测试集验证集这些都可以不用.

  • 你要验证自己的训练脚本的流程对不对. 这一步小数据量, 生成速度快, 但是所有的脚本都是和未来大规模训练一致的(除了少跑点循环)
  • 如果小数据量下, 你这么粗暴的大网络奔着过拟合去都没效果. 那么, 你要开始反思自己了, 模型的输入输出是不是有问题? 要不要检查自己的代码(永远不要怀疑工具库, 除非你动过代码)? 模型解决的问题定义是不是有问题? 你对应用场景的理解是不是有错? 不要怀疑NN的能力, 不要怀疑NN的能力, 不要怀疑NN的能力. 就我们调参狗能遇到的问题, NN没法拟合的, 这概率是有多小?
  • 你可以不这么做, 但是等你数据准备了两天, 结果发现有问题要重新生成的时候, 你这周时间就酱油了.

2.Loss设计要合理.

  • 一般来说分类就是Softmax, 回归就是L2的loss. 但是要注意loss的错误范围(主要是回归), 你预测一个label是10000的值, 模型输出0, 你算算这loss多大, 这还是单变量的情况下. 一般结果都是nan. 所以不仅仅输入要做normalization, 输出也要这么弄.
  • 多任务情况下, 各loss想法限制在一个量级上, 或者最终限制在一个量级上, 初期可以着重一个任务的loss

3.观察loss胜于观察准确率

准确率虽然是评测指标, 但是训练过程中还是要注意loss的. 你会发现有些情况下, 准确率是突变的, 原来一直是0, 可能保持上千迭代, 然后突然变1. 要是因为这个你提前中断训练了, 只有老天替你惋惜了. 而loss是不会有这么诡异的情况发生的, 毕竟优化目标是loss.
给NN一点时间, 要根据任务留给NN的学习一定空间. 不能说前面一段时间没起色就不管了. 有些情况下就是前面一段时间看不出起色, 然后开始稳定学习.

4.确认分类网络学习充分

分类网络就是学习类别之间的界限. 你会发现, 网络就是慢慢的从类别模糊到类别清晰的. 怎么发现? 看Softmax输出的概率的分布. 如果是二分类, 你会发现, 刚开始的网络预测都是在0.5上下, 很模糊. 随着学习过程, 网络预测会慢慢的移动到0,1这种极值附近. 所以, 如果你的网络预测分布靠中间, 再学习学习.

5.Learning Rate设置合理

  • 太大: loss爆炸, 或者nan
  • 太小: 半天loss没反映(但是, LR需要降低的情况也是这样, 这里可视化网络中间结果, 不是weights, 有效果, 俩者可视化结果是不一样的, 太小的话中间结果有点水波纹或者噪点的样子, 因为filter学习太慢的原因, 试过就会知道很明显)
  • 需要进一步降低了: loss在当前LR下一路降了下来, 但是半天不再降了.
  • 如果有个复杂点的任务, 刚开始, 是需要人肉盯着调LR的. 后面熟悉这个任务网络学习的特性后, 可以扔一边跑去了.
  • 如果上面的Loss设计那块你没法合理, 初始情况下容易爆, 先上一个小LR保证不爆, 等loss降下来了, 再慢慢升LR, 之后当然还会慢慢再降LR, 虽然这很蛋疼.
  • LR在可以工作的最大值下往小收一收, 免得ReLU把神经元弄死了. 当然, 我是个心急的人, 总爱设个大点的.

6 对比训练集和验证集的loss
判断过拟合, 训练是否足够, 是否需要early stop的依据, 这都是中规中矩的原则, 不多说了.

7 清楚receptive field的大小
CV的任务, context window是很重要的. 所以你对自己模型的receptive field的大小要心中有数. 这个对效果的影响还是很显著的. 特别是用FCN, 大目标需要很大的receptive field. 不像有fully connection的网络, 好歹有个fc兜底, 全局信息都有.

简短的注意事项:

预处理: -mean/std zero-center就够了, PCA, 白化什么的都用不上. 我个人观点, 反正CNN能学习encoder, PCA用不用其实关系不大, 大不了网络里面自己学习出来一个.
shuffle, shuffle, shuffle.
网络原理的理解最重要, CNN的conv这块, 你得明白sobel算子的边界检测.
Dropout, Dropout, Dropout(不仅仅可以防止过拟合, 其实这相当于做人力成本最低的Ensemble, 当然, 训练起来会比没有Dropout的要慢一点, 同时网络参数你最好相应加一点, 对, 这会再慢一点).
CNN更加适合训练回答是否的问题, 如果任务比较复杂, 考虑先用分类任务训练一个模型再finetune.
无脑用ReLU(CV领域).
无脑用3x3.
无脑用xavier.
LRN一类的, 其实可以不用. 不行可以再拿来试试看.
filter数量2^n.
多尺度的图片输入(或者网络内部利用多尺度下的结果)有很好的提升效果.
第一层的filter, 数量不要太少. 否则根本学不出来(底层特征很重要).
sgd adam 这些选择上, 看你个人选择. 一般对网络不是决定性的. 反正我无脑用sgd + momentum.
batch normalization我一直没用, 虽然我知道这个很好, 我不用仅仅是因为我懒. 所以要鼓励使用batch normalization.
不要完全相信论文里面的东西. 结构什么的觉得可能有效果, 可以拿去试试.
你有95%概率不会使用超过40层的模型.
shortcut的联接是有作用的.
暴力调参最可取, 毕竟, 自己的生命最重要. 你调完这个模型说不定过两天这模型就扔掉了.
机器, 机器, 机器.
Google的inception论文, 结构要好好看看.
一些传统的方法, 要稍微了解了解. 我自己的程序就用过1x14的手写filter, 写过之后你看看inception里面的1x7, 7x1 就会会心一笑。

原文发布时间为:2018-07-14
本文作者:大数据挖掘DT机器学习
本文来自云栖社区合作伙伴“ 大数据挖掘DT机器学习 ”,了解相关信息可以关注“ 大数据挖掘DT机器学习

转载自https://yq.aliyun.com/articles/610509 仅方便自己学习卷积神经网络的卷积核大小、卷积层数、每层map个数都是如何确定下来的呢?看到有些答案是刚开始随机初始化卷积核大小,卷积层数和map个数是根据经验来设定的,但这个里面应该是有深层次原因吧,比如下面的手写字卷积神经网络结构图1,最后输出为什么是12个map,即输出12个特征?然后图2又是输出10个特征了... 标签:正则化 神经网络 激活函 神经网络 卷积 一、神经网络与 卷积神经网络 这里我们构建一个两层神经网络,理论上两层神经网络已经可以拟合任意函 。这个神经网络的结构如下图: 首先去掉图1中一些难懂的东西,如下图: 1.1 输入层 在例子中,输入层是坐标值,例如(1,1),这是一个包含两个元素的 组,也可以看作是一个12的矩阵。输入层的元素维度与输入量的特征息息相关,如果输入的是一张3232像素的灰度图像,那么
卷积神经网络 某个 卷积层 中的神经元的 个数 怎么 确定 一般的人工神经网络(简称,神经网络)是通过连接多层的神经元对输入的向量进行处理, 据和神经元是全连接的形式,通过样本的训练完成权值的更新,进而达到学习的效果。 而 卷积神经网络 是有 卷积层 激励层 池化层 全连接层组成,首先 卷积神经网络 的提出是优化一般神经网络的训练效率,我们知道 卷积神经网络 卷积层 激励层 池化层都并非全连接状态,所以训练的权值也相对减少,但是 卷积神经网络 要达到的效果是减少训练参 量但是不减少训练样本的质量。 对于 卷积神经网络 ,每一个 卷积核
一般文献中卷积过程多是对一个通道的图像进行卷积, 但实际中图篇是多通道的, 卷积核 个数 也大于1。比如10个 卷积核 ,得到10个feature map, 那么输入图像为RGB三个通道呢,输出就为 30个feature map 吗, 答案肯定不是的。 输出的 个数 依然是 卷积核 个数 ,仍然是10个featuremap, 每一层输出feature map 个数 就是该层 卷积核 个数 。 实际上,卷积操作通过卷...
卷积层 :与传统全连接层不同, 卷积层 中每一个节点的输入只是上一层神经网络的一小块。(试图将神经网络中的每一小块进行更加深入地分析从中得到抽象程度更高的特征) 在 卷积层 中:1.过滤器(filter)处理的节点矩阵的长和宽由人工指定;2.处理得到的单位节点矩阵的深度--过滤器的深度;                         (过滤器的尺寸是指过滤器输入节点矩阵的 大小 ;深度是指输出单位节点矩阵
卷积神经网络 (Convolutional Neural Networks, CNNs)是一种被广泛应用于图像、语音和自然语言处理等领域的深度学习模型。 卷积层 是CNN中的核心层,用于提取输入 据的特征。以下是 卷积层 相关的理论知识: ### 卷积操作 卷积层 中的卷积操作是指将输入 据和一组 卷积核 (也称为滤波器或过滤器)进行卷积计算,得到输出特征图的过程。假设输入 据为一个 $n \times n$ 的二维矩阵 $\mathbf{X}$, 卷积核 为一个 $k \times k$ 的二维矩阵 $\mathbf{K}$,则卷积操作的输出特征图 $\mathbf{Y}$ 可以表示为: \mathbf{Y}_{i,j} = \sum_{m=1}^{k} \sum_{n=1}^{k} \mathbf{X}_{i-m+\lfloor \frac{k}{2} \rfloor,j-n+\lfloor \frac{k}{2} \rfloor} \cdot \mathbf{K}_{m,n} 其中,$\lfloor \cdot \rfloor$ 表示向下取整操作。可以将上式中的 $\lfloor \frac{k}{2} \rfloor$ 看作是填充(padding)操作的一种,用于保持输入 据和输出特征图的 大小 相同。卷积操作的步长(stride)表示 卷积核 在输入 据上移动的距离,通常为 1。当步长大于 1 时,可以通过调整填充操作来保持输出特征图的 大小 。 ### 卷积核 卷积核 卷积层 中的可学习参 ,用于提取输入 据的特征。 卷积核 大小 通常比输入 据小,因为较小的 卷积核 可以提取更局部的特征。在训练过程中, 卷积核 的权重会被不断调整以最大化输出特征图与标签 据之间的相似度。 ### 激活函 卷积层 的输出通常需要通过激活函 进行非线性变换,以增强模型的表达能力。常见的激活函 包括 Sigmoid 函 、ReLU 函 、Leaky ReLU 函 等。其中,ReLU 函 是目前最常用的激活函 ,因为它可以有效地避免梯度消失问题,加速模型的训练过程。 ### 池化操作 池化操作是 卷积神经网络 中常用的一种降采样操作,用于减小特征图的 大小 ,提高模型的鲁棒性。常见的池化操作包 ### 回答2: 卷积神经网络 (Convolutional Neural Network,CNN)是一种主要用于图像处理和模式识别的深度学习算法。 卷积层 是CNN的核心组成部分之一,其原理是模拟人类视觉系统的局部感知和特征提取机制。 卷积层 通过卷积操作来提取图像的局部特征。卷积操作主要包括两个步骤:卷积运算和激活函 。卷积运算 使用 一个可学习的滤波器(也称为 卷积核 )对输入图像进行滑动窗口式的局部计算,通过计算输入与滤波器的点乘和求和来得到输出。滤波器的参 是通过网络训练得到的,它可以捕捉不同的图像特征,如边缘、纹理等。激活函 对卷积运算的结果进行非线性变换,增加网络的表达能力。 卷积层 还包括一些参 ,如步长(stride)、填充(padding)和输出通道 。步长决定滑动窗口在输入上的移动距离,影响输出的 大小 ;填充是在输入的边界上添加额外的像素,可以保持输入输出的尺寸一致,并减小信息丢失;输出通道 是指 卷积层 中滤波器( 卷积核 )的 量,每个滤波器提取一种特征,多个滤波器可以提取不同的特征。 卷积层 具有多个优势。首先,卷积运算的参 共享机制减少了网络的参 量,提高了计算效率。其次,卷积操作保持了输入图像的局部结构,提取了重要的空间特征。此外,多个 卷积层 可以逐级提取图像的高层次抽象特征。 总之, 卷积层 卷积神经网络 中非常关键的一层,通过卷积运算和激活函 来提取图像的局部特征,具有参 共享、保持局部结构和逐级提取特征等优势。在实际应用中, 卷积层 通常与其他层(如池化层、全连接层)结合 使用 ,构建起完整的 卷积神经网络 ,实现图像的高效处理和模式识别。 ### 回答3: 卷积神经网络 (Convolutional Neural Network,CNN)是一种广泛应用于图像和语音处理领域的深度学习模型。 卷积层 是CNN中最重要的组成部分之一。 卷积层 的主要作用是提取输入 据中的特征。它通过卷积操作将输入 据与一组可学习的 卷积核 进行卷积运算,得到一系列特征图(Feature Map)。每个特征图代表着不同的特征,例如边缘、纹理、形状等。 卷积操作是一种逐元素的乘法和加法运算。假设输入 据为二维矩阵A, 卷积核 为二维矩阵B,则卷积操作可以表示为C[i, j] = sum(A[x, y] * B[i-x, j-y]),其中sum表示求和,(i, j)为特征图中的位置,(x, y)为 卷积核 中的位置。 在 卷积层 中,可以 使用 多个 卷积核 来提取不同的特征。每个 卷积核 都有自己的权重参 ,通过反向传播算法进行优化。 卷积核 大小 量是可以调整的超参 ,根据任务的需求来 确定 卷积层 还包括激活函 和池化操作。激活函 引入了非线性变换,增加了神经网络的表达能力。常用的激活函 有ReLU、Sigmoid和Tanh等。池化操作用于减小特征图的尺寸,减少计算量,并提取最显著的特征。常用的池化操作有最大池化和平均池化。 卷积神经网络 卷积层 具有以下几个优势: 1. 参 共享: 卷积层 的参 在整个输入 据中是共享的,使得网络更加紧凑,减少了需要学习的参 量,提高了模型的训练效率。 2. 局部感知性: 卷积层 通过滑动窗口的方式进行卷积操作,可以局部感知输入 据的特征,更加适用于处理图像和语音等具有局部相关性的 据。 3. 高效计算:卷积操作可以通过傅里叶变换等快速算法进行计算,降低了计算复杂度。 总之, 卷积层 卷积神经网络 中的核心组件之一,它通过卷积操作提取输入 据的特征,具有参 共享、局部感知性和高效计算等优势。它的设计使得CNN在图像处理和语音识别等领域取得了很多成功应用。 m0_62442552: input = torch.randn(3, 64, 64),报错File "G:\PythonProject\segment\unet-pytorch-main\nets\unet.py", line 171, in <module> out_sizes.append(np.array(out.size())) AttributeError: 'list' object has no attribute 'size' 请问怎么解决? PCA特征提取及使用sklearn降维方法 |▍生于忧患: 兄弟找到答案了吗