Editsprings@163.com (周一至周日,9:00-23:00) | (周一至周日,9:00-23:00)

VGG翻译冷夏的专栏,EditSprings,艾德思

网络 | 2019/03/11 13:41:23  | 104 次浏览



摘要   在这项工作中,我们调查了在大规模图像识别设置中,卷积神经网络的深度对其精确度的影响.我们的主要贡献是使用具有非常小(3 * 3)卷积滤波器的架构对于增加了深度的网络的全面评估,这表明将通过将深度推到16-19个权重层可以实现对现有技术配置的显著改进.这些发现是我们ImageNet Challenge 2014提交的基础,我们的团队分别在定位和分类问题中获得了第一和第二名.我们还表明,我们的方式很好地推广到了其他数据集上,在那里他们实现了最好的结果.我们已经使我们的两个性能最好的ConvNet模型公开可用,以便进一步研究在计算机视觉中使用深度视觉表示.

1 引言   卷积网络(ConvNets)最近在大规模图像和视频识别方面取得了巨大的成功,由于大型的公共图像库,高性能计算系统,例如GPU或者大规模的分布式集群.特别的,ImageNet大规模视觉识别挑战(ILSVRC)在深度视觉识别架构中发挥了重要的作用,它已经作为几代大型图像分类系统的实验台了,从高维的浅特征编码到深的ConvNets. 随着ConvNets在计算机视觉领域变得越来越流行,已经进行了许多尝试来改进Krizhevsky等人的原始结构,以达到更好的准确性.例如,ILSVRC-2013中最好的提交使用较小的接受窗口大小和在第一个卷积层更小的步长.另一个改进涉及在整个图像和多个尺度上密集地训练和测试网络.在本文中,我们讨论了ConvNet架构设计的另一个重要方面-深度.最后,我们固定了结构的其他参数,并通过添加更多的卷积层来稳定地增加网络的深度,这种方式的可行性是因为在所有层中都使用了非常小的(3*3)的卷积滤波器. 结果,我们提出了更加准确的ConvNet的结构,它不仅实现了在ILSVRC分类和定位任务的最好的精度,而且也适用于其他的图像识别数据集.在这些数据集中本文的方式即使是用作相对简单的管道(例如,由没有经过微调的线性SVM分类的深度特征)的一部分,也实现了非常卓越的性能表现.我们已经发布了两个最好的模型,以促进进一步的研究. 本文的其余部分组织如下.在第2部分,我们描述我们的ConvNet的配置.图像分类训练和评估的细节展示在第3部分.关于ILSVRC分类任务的配置比较是在第4部分.第5节总结本文.为了完整性,我们还在附录A中描述和评估了我们的ILSVRC-2014目标定位系统,并在附录B中讨论了对其他数据集的深层特征的泛化能力.最后,附录C包含了主要文章修定版本的列表.

2 ConvNet配置   为了测量在公平的环境中增加的ConvNet深度带来的改进,我们所有的ConvNet层的配置使用与Ciresan(2011)和Krizhevsky(2012)相同的原则设计.在本节中,首先描述了我们的ConvNet的配置(第节)的通用布局,然后详细介绍了评估中使用的具体配置(节).然后在节讨论了我们的设计选择并将其与现有的技术相比较.

架构   在训练期间,我们的ConvNet的输入是固定大小的224 * 224的RGB图像.我们做的唯一的预处理是从每个像素值上减去在训练集上计算的平均RGB值.图像通过一堆卷积层(conv.),其中我们使用具有非常小的接收野的滤波器:3 * 3(这是捕获左/右,上/下,中心概念的最小尺寸).在其中一个配置中,我们还使用了1 * 1的卷积过滤器,这可以看作是输入通道的线性变换(之后接一个非线性变换).卷积步长固定为1个像素;卷积层的输入的空间填充是使得在卷积之后保留空间分辨率,如,对于一个3 * 3的卷积层来说填充是1个像素.空间池化是由5个最大池化层执行的,基在一些卷积层后面(不是所有的卷积层之后都跟着最大池化层).最大池化是在2*2的像素窗口上执行的,步长为2. 一堆卷积层(在不同的架构中具有不同的深度)之后是三个全连接层(FC):前两个每一个都有4096个通道,第三个执行1000类的ILSVRC分类,因此包含1000个通道(每个类一个通道).最后一层是soft-max层.全连接层的配置在所有网络中都是相同的. 所有的隐藏层都配有修正的非线性单元(ReLU).注意到我们的网络只有一个包含有局部响应正则化(LRN):会在第4节中展示,这种正则化不会改善在ILSVRC数据集中的性能,但会导致内存消耗和计算时间增加.在适用的情况下,LRN层的参数是(Krizhevsky et al., 2012)等人的参数.

配置   本文评估的ConvNet配置在表1中罗列,每列一个.在下文中我们将会通过他们的名字(A-E)来指代网络.所有配置都遵循节中提出的通用设计,仅在深度上有所不同:从网络A的11个权重层(8个卷积层和3个全连接层)到网络E的19个权重层(16个卷积层和3个全连接层).卷积层的宽度(通道的数量)越来越大(PS:感觉文章说错了,文章是rather small),从第一层的64个开始,然后在每个最大池化层之后以2次幂增加,直到其达到512. 在表2中,我们报告了每个配置的参数数量.尽管有较大的深度,我们网络中权重的数量不大于具有较大的卷积层宽度和接收野的较浅的网络中的权重的数目(114M个权重在(Sermanet等人,2014)).

讨论   我们的ConvNet配置与ILSVRC-2012(Krizhevsky等人 2012)和ILSVRC-2013比赛(Zeiler & Fergus, 2013; Sermanet 等人, 2014)中表现最好的模型有很大的不同.我们在第一个卷积层没有使用相对大的感受野(例如,在(Krizhevsky et al., 2012)中是11 * 11 步长是4,或者在 (Zeiler & Fergus,2013; Sermanet et al., 2014)中是7 * 7 步长是2, 而是在整个网络中使用了非常小的3 * 3 的感受野,对输入中的每一个像素进行卷积处理,步长为1.很容易看到两个3 * 3 的卷积层(中间不带空间池化)和一个5 * 5的卷积层具有相同的感受野(PS: 就是说假如输入是5*5的图像,用3*3的filter卷积之后输入图像变成3*3,再来一个3 * 3 的filter卷积后输入图像变成1*1 .这和直接用一个5*5的filter卷积图像是一样的效果;).3个这样的层就会相当于一个7*7的感受野.所以我们通过使用,例如,三个3*3卷积层的堆叠而不是单个的7*7的卷积层,我们获得了什么?我们引入了三个非线性修正层,而不是一个,这使得决策函数更具有辨别力.第二,我们减少了参数的数量:假设三层3*3的卷积层的一个堆的输入和输出都具有C个通道(PS:通道就是卷积层的输出数量,还需要注意的是输入也是C个通道,后面的公式就好理解了).这个堆就由 3 ( 3 2 C 2 ) = 27 C 2 3(32C2)=27C2 个参数,比上面的多了81%还多(27 的81%是,加上27 是,所以比81%还多).这可以被看成是对7*7的卷积过滤器强加了一个正则化,迫使它们通过3*3滤波器(在其间注入非线性)进行分解. 表一:ConvNet配置(以列展示).配置的深度从左(A)向右(E)增加,因为添加了更多的层(添加的层以粗体表示).卷积层参数表示成"conv<感受野大小>-<通道数量>'.为了简洁,未展示ReLU激活函数 引入1*1卷积层(表1,配置C)是增加决策树的非线性而不影响卷积层的感受野的方法.即使在我们的情况下,1*1卷积本质上是在相同维度空间上的线性映射(输入和输出通道的数量是相同的),由修正函数引入附加的非线性.应当注意,1*1的卷积层最近已经被用于Lin等人(2014)的"Network in Network'架构中.小尺寸的卷积滤波器之前已由 Ciresan(2011)等人使用,但是他们的网络没有我们的网络深,并且他们没有在大规模ILSVRC数据集上进行评估.Goodfellow等人(2014)将深层ConvNets(11个权重层)应用到街道号码识别任务中,并且表明增加的深度能产生更好的性能.GoogLeNet(Szegedy等人2014)是ILSVRC-2014分类任务中表现最好的一个模型,它是独立于我们的工作开发的,但是类似的是它基于非常深的ConvNets(22个权重层)和非常小的卷积过滤器(除了3*3的,他们也使用1*1和5*5的卷积).然而,他们的网络拓扑结构比我们的更复杂,在第一层中更剧烈的减少特征映射的空间分辨率以减少计算量.如第节所示,我们的模型在单网络分类精度方面优于Szegedy等人(2014)的模型.

3 分类框架   在上一节中,我们展示了我们网络配置的细节.在本节中,我们描述分类ConvNet训练和评估的细节.ConvNet的训练过程一般遵循Krizhevsky等人的方式(除了从不同尺寸的训练图像中抽取剪裁的图像,会在正文中解释).也就是通过使用带有momentum的mini-batch梯度下降算法(基于(LeCun,1989)等人的反向传播)来优化多项逻辑回归目标函数,以此来达到训练目的.批量(batch)大小被设置成256,momentum设置成.训练通过权重衰减(L2惩罚系数设置成 5 ∗ 10 − 4 5∗10−4 =512)随机采样S来单独地重新缩放每个训练图像.因为图像中的对象可以具有不同的大小,因此在训练期间将这一点考虑进去是非常有益的.这也可以看成是通过尺寸抖动的训练集增加,其中单个模型被训练以识别大范围尺度上的对象.出于速度上的考虑,我们通过微调具有相同配置的单尺度模型的所有层来训练多尺度模型,用固定的S = 384来预训练.

测试   在测试时,给定训练的ConvNet和一个输入图像,它按以下方法分类.首先,它被各向同性地重新缩放到预定义的图像的最小边,表示为Q(我们也称为测试尺寸).我们注意到Q不一定等于训练尺寸S(如我们将在第4节中展示的,对每个S使用几个Q值来改善性能).然后,以类似于(Sermanet等人,2014)的方法将网络密集地应用于重新缩放的测试图像.也就是说,全连接层首先被转换成卷积层(第一个FC层转换成7*7的卷积层,最后两个FC层转换成1*1的卷积层).然后将所得到的全卷积网络应用于整个(未剪裁)图像.结果是类别分数图(其通道数量等于类的数量)和一个变化的空间大小(取决于输入图像的大小).最后,为了获得图像的类分数的固定大小的向量,类别分数图被空间平均了(sum-pooled).我们也通过水平翻转图像来增加测试集;将原始图像和翻转图像的soft-max分类后验概率进行平均以获得图像的最终分数. 由于全卷积网络是应用于整个图像上的,因此在测试的时候不需要抽取多个剪裁 (Krizhevsky et al., 2012),因为它需要对每个裁剪进行网络的重新计算,所以效率低下.同时,如Szegedy et al. (2014)做的一样,使用大量的裁剪,可以导致精度的提升,因为它导致输入图像比全卷积网络有更精细的采样.此外,由于不同的卷积边界条件,多裁剪评估与密集评价互补:当将ConvNet应用于剪裁的图像时,卷积特征图用零填充,而在密集评估时,用于相同的裁剪的图像的填充自然来自于图像的相邻部分(由于卷积和空间池化),这大大增加了整个网络的感受野,因此捕获了更多的上下文信息.虽然我们相信在实践中由多裁剪增加的计算时间并不能证明准确性的潜在增加,但是做为参考,我们也评估了我们的网络在每个尺寸上使用了50个剪裁(25个规则网格和2个翻转),在3个尺寸上总共150个裁剪图像,这与Szegedy et al. (2014)等人使用的的4个尺寸上的144个裁剪图像相对比.

实现细节    我们的实现源自公开提供的C++Caffe工具箱(2013年12月提供),但是包含了一些重要的修改,允许我们在安装在单个系统中的多个GPU上执行训练和评估,并且也可以在多尺度(如上所述)上对全尺寸(未裁剪)的图像进行训练和评估.多GPU训练利用了数据的并行性,并且通过将每批训练图像分割成若干GPU小批块来执行,并且在每块GPU上并行处理.在计算GPU小批块梯度之后,将它们平均以获得整个批次的梯度.梯度计算在多个GPU上是同步的,因此结果与在单个GPU上训练时的结果完全相同.虽然最近提出了加速ConvNet训练的更复杂的方式(Krizhevsky, 2014),它们对网络的不同层采用模型和数据的并行处理,但是我们发现,我们概念上更简单的方案在现成的4-GPU系统上已经提供了倍的加速,与使用单个GPU相比.在配备有四个NVIDIA Titan Black GPU的系统上,根据架构不同训练一个单独的网络需要2-3周.

4. 分类实验    数据集. 在本节中,我们介绍了通过上文描述的ConvNet结构在ILSVRC-2012数据集(用于ILSVRC2012-2014挑战赛)上实现的图像分类结果.这个数据集包含了1000类的图像,并且被分成了3个集合:训练集(个图像),验证集(50K的图像),和测试集(100K图像带有类标签).使用两种测量方式来评估分类性能:top-1和top-5的误差.前者是多类分类误差,例如,不正确分类的图像的比例.后者是ILSVRC中使用的主要评估标准,按如下方式计算,正确类别在前5个预测类别之外的的图像所占的比例.对于大多数实验,我们使用验证集作为测试集.在测试集上也进行了一些实验,并作为"VGG'团队进入ILSVRC-2014比赛(Russakovsky et al., 2014)提交给官方ILSVRC服务器.

单一尺度评估   我们开始评估单个ConvNet模型在单个尺度上的性能,用的上节描述的层配置.测试图像大小设置如下:Q=S,S固定,和 Q=( S m i n + S m a x Smin+Smax )比在具有固定最小边(S=256或S=384)的图像上训练产生明显的更好的结果.这证实了通过尺寸抖动的训练集的增加确实有助于捕获多尺度的图像统计数据.

多尺度评估   已经在单个尺度上评估了ConvNet模型后,我们现在在测试的时候评估尺度抖动的影响.它包括在一个测试图像(对应于不同的Q值)的几个重新缩放的版本上运行一个模型,然后平均所得到的类的后验概率.考虑到训练和测试尺度之间的大的差异会导致性能的下降,用固定的S训练的模型在三个测试图像尺度(接近于训练时的尺度:Q={S-32,S,S+32})上进行评估.与此同时,训练时候的尺度抖动允许网络在测试的时候应用于更宽的尺度范围,所以用变化的S( S ∈ [ S m i n , S m a x ] S∈[Smin,Smax] ). 表4中呈现的结果表明测试时候的尺度抖动会导致更好的性能(对比于表3中所示的在单个尺度上评估相同的模型).与以前一样,最深的配置(D和E)表现最好,尺度抖动的训练比用固定最小边S训练效果要好.我们在验证集上的最佳单一网络的性能是 对应于top-1/top-5 错误率(在表4中以粗体显示).在测试集上,配置E实现了的Top-5错误率.

多裁剪评估   在表5中我们比较了密集ConvNet评估与多裁剪评估(详见第节).我们还通过平均Softmax输出来评估两种评估技术的互补性.可以看出,使用多种剪裁表现要略好于密集评估,并且这两种方式确实是互补的,因为它们的结合优于他们中的每一种.如上所述,我们假设这是由于卷积边界条件的不同处理造成的. 表5:ConvNet评估技术对比.在所有的实验中训练尺度S是从[256; 512]中抽取的,并且3个测试尺度Q被认为是:{256,384,512}.

4.4 ConvNet融合   到目前为止,我们只计算了一个ConvNet模型的性能.在实验部分,我们通过平均几个模型的soft-max类的后验概率来结合输出.由于模型之间的互补,这种方式提高了性能,并且在2012年 (Krizhevsky et al., 2012) 和2013年 (Zeiler & Fergus, 2013; Sermanet et al., 2014)被顶级的ILSVRC提交使用. 结果展示在表6中.到ILSVRC提交的时间,我们仅仅训练了一个单一尺度的网络,和一个多尺度的模型D(仅仅通过微调了全连接层而不是所有层).所得到的7个网络的融合具有的ILSVRC测试错误率.在提交之后,我们考虑只融合两个表现最好的多尺度模型(配置D和E),这种方式在使用密集评估的时候将错误率减少到了,并且在使用密集和多尺度评估组合的时候将错误率减少到了.做为参考,我们最好的单个模型实现了的错误率(模型E,表5).

与现有技术的比较   最后,我们在表7中将我们的结果与现有的技术进行了比较.在ILSVRC-2014挑战赛的分类任务(Russakovsky et al., 2014)中,我们的"VGG'团队使用7个模型的融合用的测试错误率达得到了第2.提交之后,我们使用2个模型的融合将错误率减少到了. 在表7中可以看出,我们的非常深的ConvNets明显优于上一代模型,它们在ILSVRC-2012和ILSVRC-2013竞赛中实现了最好的结果.我们的结果对于分类任务的冠军(GoogLeNet with 6.7% error)也是非常具有竞争性的,并且大大优于ILSVRC-2013的冠军提交的模型Clarifai,它在用了外部训练数据的情况下实现了,在没用外部数据的情况下实现了.值得注意的是我们最好的结果是仅仅融合了两个模型实现的-显著小于大多数ILSVRC提交中使用的.关于单一网络性能,我们的结构实现了最好的结果(的测试错误率),比超过单一GoogLeNet%.值得注意的是,我们没有偏离 LeCun et al. (1989)的经典结构,而且大大提升了它的深度.

5 结论   在这次工作中我们评估了非常深的卷积神经网络(达到19层)用于大规模的图像分类.证明了深度有益于分类准确度,在ImageNet挑战数据集上的最先进的表现可以使用一个ConvNet架构(LeCun et al., 1989; Krizhevsky et al., 2012)加上深度的增加来实现.在附录中,我们还显示我们的模型适用于各种各样的任务的数据集,匹配或超过了构建在较深图像表示上的更复杂的管道.我们的结果再次证实了在视觉表示中深度的重要性.

未完,待续``

 

 

更多科研论文服务,动动手指,请戳 论文润色投稿期刊推荐论文翻译润色论文指导及修改论文预审

语言不过关被拒?美国EditSprings--专业英语论文润色翻译修改服务专家帮您!

上一篇:【严正申明】关于我公司网站被恶意抄袭严正声明

下一篇:20年老主编教你写学术论文起重机吊装技术之家,EditSprings,艾德思

特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

凡注明来源为“EditSprings”的论文,如需转载,请注明来源EditSprings并附上论文链接。

最热论文