文章目录
- 老铁们✌,重要通知🙌!福利来了!!!😉
- 1.NN
- 2.CNN
-
- 2.1卷积神经网络的结构
- 2.2 Keras搭建CNN
- 2.2经典网络分类
- 2.3 卷积层有哪些基本参数?
- 2.4 如何计算卷积层的输出的大小?
- 2.5 如何计算卷积层参数数量?
- 2.6 有哪些池化方法?
- 2.7 1*1卷积的作用?
- 2.8 卷积层和池化层有什么区别?
- 2.9 卷积核是否一定越大越好?
- 2.10 卷积在图像中有什么直观作用?
- 2.11 空洞卷积
- 2.12 怎样才能减少卷积层参数量?
- 2.13 在进行卷积操作时,必须同时考虑通道和区域吗?
- 2.14 采用宽卷积,窄卷积的好处有什么?
- 2.15 介绍反卷积(转置卷积)
- 2.16 如何提高卷积神经网络的泛化能力?
- 2.17 卷积神经网络在NLP与CV领域应用的区别?
- 2.18 如何理解卷积、池化等、全连接层等操作?
- 2.19 增大感受野的方法?
- 2.20 Max pooling如何工作?还有其他池化技术吗?
- 2.21卷积神经网络的优点?为什么用小卷积核?
- 2.22 CNN拆成3x1 1x3的优点?
- 2.23 BN、LN、IN、GN和SN的区别?
- 2.24 常见的卷积操作有哪些?
- 2.25 上采样的方法有哪些?
- 2.26 mini-batch的大小对学习效果有何影响?
- 2.27 加速收敛/降低训练难度的方法有哪些?
- 2.27 如何防止过拟合?
- 2.28 权重衰减(weight decay)
- 2.29 学习率衰减(learning rate decay)
- 2.30 pooling层怎么反向传播?
- 轻量化模型
老铁们✌,重要通知🙌!福利来了!!!😉
【计算机视觉 复习流程剖析及面试题详解 】
【深度学习算法 最全面面试题(30 页)】
【机器学习算法 最全面面试题(61页)】
1.NN
2.CNN
对图像(不同的数据窗口数据)和滤波矩阵做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作。
卷积神经网络由输入层、卷积层、激励层、池化层、全连接层组成。
①最左边:
数据输入层,对数据做一些处理:
去均值(把输入数据各个维度都中心化为0,避免数据过多偏差,影响训练效果)
归一化(把所有的数据都归一到同样的范围)、PCA/白化等。CNN只对训练集做“去均值”这一步。
②中间是:
CONV:卷积层,线性乘积 求和。
RELU:激励层,ReLU是激活函数的一种。
POOL:池化层,即取区域平均或最大。
③最右边是:
FC:全连接层
2.1卷积神经网络的结构
BatchNorm层:
Dropout层:
损失层:
2.2 Keras搭建CNN
总结: 通常情况下,一维CNN的架构与CV的二维CNN很相似, 它将 Conv1D 层和 MaxPooling1D 层堆叠在一起,最后是一个全局池化运算或展平操作。
RNN 在处理非常长的序列时计算代价很大,但一维CNN的计算代价很小, 所以在 RNN 之前使用一维CNN作为预处理步骤是一个好主意,这样可以使序列变短,并提取出有用的表示交给 RNN 来处理。
2.2经典网络分类
CNN结构演变总结
堆叠(Vgg)
跳连(ResNet :加快模型收敛速度)
并联(GoogleNet/Inception)
AlexNet(7层) ~ Vgg(16层) ~ GoogleNet (22层) ~ ResNet(152) ~ DenseNet (千层)
2.2.1 LeNet
最早用于数字识别;针对灰度图进行训练的,输入图像大小为32X32X1,5X5卷积核,不包含输入层的情况下共有7层,每层都包含可训练参数。
输入的二维图像,先经过两次卷积层到池化层,再经过全连接层,最后使用softmax分类作为输出层。(conv1->pool->conv2->pool2再接全连接层)
2.2.2 AlexNet
用多层小卷积叠加来替换单个的大卷积。
输入尺寸:227X227X3
卷积层:5个
降采样层(池化层):3个
全连接层:2个(不包含输出层)
输出层:1个。1000个类别
AlexNet比LeNet表现更为出色的另一个原因是它使用了ReLu激活函数。
2.2.2.1 AlexNet 对比LeNet 的优势?
1.AlexNet比LeNet更深;
2.用多层的小卷积来替换单个的大卷积;
3.非线性激活函数:ReLU
4.防止过拟合的方法:Dropout,数据增强
5.大数据训练:百万级ImageNet图像数据
6.其他:GPU实现,LRN归一化层的使用
2.2.3 VGG
构筑了16~19层深的卷积神经网络,VGG-16中的16:含有参数的有16个层。
VGGNet论文中全部使用了3X3的小型卷积核和2X2的最大池化层,通过不断加深网络结构来提升性能。
卷积层:CONV=3*3 filters, s = 1, padding = same convolution。
池化层:MAX_POOL = 2X2 , s = 2。
优点:简化了卷积神经网络的结构;缺点:训练的特征数量非常大。
随着网络加深,图像的宽度和高度都在以一定的规律不断减小,每次池化后刚好缩小一半,信道数目不断增加一倍。
2.2.3.1 VGG使用2个3*3卷积的优势在哪里?
①减少网络层参数:
用两个3X3卷积比用1个5*5卷积拥有更少的参数量,只有后者的2X3X3/(5X5)=0.72。但是起到的效果是一样的,两个33的卷积层串联相当于一个55的卷积层,感受野的大小都是5×5,即1个像素会跟周围5X5的像素产生关联.
②更多的非线性变换