什么是盗梦空间和GoogleNet结构?针对这个问题,本文详细介绍了相应的分析和解答,希望能帮助更多想要解决这个问题的小伙伴找到更简单易行的方法。
GoogleNet是2014年ILSVRC的冠军模式。GoogleNet在互联网上做了更大胆的尝试,而不是像vgg一样继承leNet和alexnet的所有框架。虽然谷歌。net有22层,参数数量只有Alex的1/12。净。
网论文指出获得高质量模型最保险的做法就是增加模型的深度,或者是它的宽度,但总的来说,更深更广的网络会有以下问题:
参数太多,容易过度拟合。如果训练数据有限,这个问题会更加突出。网络越大,计算复杂度越大,难以应用。网络越深,梯度越有可能消失。简而言之,更大的网络容易产生过拟合,并且增加了计算量
【GoogleNet给出的解决方案】
把全连接层甚至一般卷积变成稀疏连接。为了保持神经网络结构的稀疏性,充分利用稠密矩阵的高计算性能,GoogleNet提出了一种称为Incident的模块化结构来实现这一目标。据大量文献都表明,将稀疏矩阵聚类为比较密集的子矩阵可以提高计算性能.(我不太懂这一块,是百度的知识,但关键是GoogleNet提出了great的模块化结构,2020年依然发挥很大作用。)
00-1010这是一个王中王结构,哦不,这是一个网络中的网络。即原节点也是一个网络,利用incident可以扩展这个网络结构的宽度和深度。从而提高性能。
解释:
使用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合。卷积核使用1,3,5主要是为了方便。设置好卷积步距=1后,只需要分别设置Pad=0,1,2,这样卷积后就可以得到相同维度的特征,然后直接拼接在一起。文章中很多地方都说明了池化是非常有效的,所以这里也介绍一下。网络越晚,特征越抽象,每个特征设计的感受野也越大。因此,随着层数的增加,33和55卷积的比例增加(这将在后面看到)。使用5x5卷积核仍然会带来巨大的计算量。因此,本文借鉴NIN2,采用1x1卷积核降维。如何用1x1卷积核降维?假设有一个3x3x10的图片特征,长宽都是1,然后是通道,我喜欢称之为厚度10,我们想把维度缩小到5,我们该怎么办?首先我们需要找到一个1x1x10的卷积核,然后卷积的结果应该是一个3x3x1的特征图。我们可以找到这个的五个卷积核,经过五次卷积,得到的图片会做出一个3x3x5这样的特征图。当然,同样,1x1卷积核也可以用来提高维数。我们从网上找到了一张谷歌网的美图:
还有一个:
网络结构进度分析如下:
0,输入
原始输入图像为224x224x3,所有图像都经过零均值预处理(从图像的每个像素中减去平均值)。
1.第一层(卷积层)
使用7x7的卷积核(滑动步骤2,填充为3),64个通道,输出为112x112x64。卷积后,执行ReLU运算。
3x3最大池化后(步长为2),输出
为((112 - 3+1)/2)+1=56,即56x56x64,再进行ReLU操作
2、第二层(卷积层)
使用3x3的卷积核(滑动步长为1,padding为1),192通道,输出为56x56x192,卷积后进行ReLU操作
经过3x3的max pooling(步长为2),输出为((56 - 3+1)/2)+1=28,即28x28x192,再进行ReLU操作
3a、第三层(Inception 3a层)
分为四个分支,采用不同尺度的卷积核来进行处理
(1)64个1x1的卷积核,然后RuLU,输出28x28x64
(2)96个1x1的卷积核,作为3x3卷积核之前的降维,变成28x28x96,然后进行ReLU计算,再进行128个3x3的卷积(padding为1),输出28x28x128
(3)16个1x1的卷积核,作为5x5卷积核之前的降维,变成28x28x16,进行ReLU计算后,再进行32个5x5的卷积(padding为2),输出28x28x32
(4)pool层,使用3x3的核(padding为1),输出28x28x192,然后进行32个1x1的卷积,输出28x28x32。
将四个结果进行连接,对这四部分输出结果的第三维并联,即64+128+32+32=256,最终输出28x28x256
3b、第三层(Inception 3b层)
(1)128个1x1的卷积核,然后RuLU,输出28x28x128
(2)128个1x1的卷积核,作为3x3卷积核之前的降维,变成28x28x128,进行ReLU,再进行192个3x3的卷积(padding为1),输出28x28x192
(3)32个1x1的卷积核,作为5x5卷积核之前的降维,变成28x28x32,进行ReLU计算后,再进行96个5x5的卷积(padding为2),输出28x28x96
(4)pool层,使用3x3的核(padding为1),输出28x28x256,然后进行64个1x1的卷积,输出28x28x64。
将四个结果进行连接,对这四部分输出结果的第三维并联,即128+192+96+64=480,最终输出输出为28x28x480
第四层(4a,4b,4c,4d,4e)、第五层(5a,5b)……,与3a、3b类似,在此就不再重复。
到这里!我们看美图应该能看出来一点,GoogleNet的结构就是3+3+3总共九个inception模块组成的,每个Inception有两层,加上开头的3个卷积层和输出前的FC层,总共22层!然后每3层的inception之后都会有一个输出结果,这个网络一共有三个输出结果,这是什么情况呢?
这个是辅助分类器,GoogleNet用到了辅助分类器。因为除了最后一层的输出结果,中间节点的分类效果也可能是很好的,所以GoogleNet将中间的某一层作为输出,并以一个较小的权重加入到最终分类结果中。其实就是一种变相的模型融合,同时给网络增加了反向传播的梯度信号,也起到了一定的正则化的作用。
最后,我再提出两个问题:
-
如果使用1x1进行特征压缩,是否会影响最终结果?回答:不会,作者的解释是,如果你想要把特征厚度从128变成256,你可以直接用3x3进行特征提取。如果你先用1x1进行压缩到64,然后再用3x3把64channel的特征扩展成256,其实对后续的精度没有影响,而且减少了运算次数。
-
为什么inception是多个尺度上进行卷积再聚合?回答:直观上,多个尺度上同时卷积可以提取到不同尺度的特征。而这也意味着最后分类判断更加准确。除此之外,这是可以利用稀疏矩阵分解成密集矩阵计算的原理来加快收敛速度。(第二个好处没有太看懂) 个人浅显的理解就是:提取多个尺度的特征,再聚合的时候,就可以找到关联性强的特征,这样就能避免浪费在关联性较弱的特征上的计算力吧。
关于什么是Inception以及GoogleNet结构问题的解答就分享到这里了,希望
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/113489.html