Going Deeper with convolutions

时间:2014-11-04 01:37:01   收藏:0   阅读:417

Going Deeper with convolutions

转载请注明:

http://blog.csdn.net/stdcoutzyx/article/details/40759903

本篇论文是针对ImageNet2014的比赛,论文中的方法是比赛的第一名,包括task1分类任务和task2检测任务。本文主要关注针对计算机视觉的高效深度神经网络结构,通过改进神经网络的结构达到不增加计算资源需求的前提下提高网络的深度,从而达到提高效果的目的。

1. Main Contribution

2. Ralated Work

3. Motivation and High level considerations

3.1. Drawback of increasing CNN size directly:

3.2. How to solve it?

4. Architectural Detail

The main idean of the Inception architecture is based on finding out how an optimal local sparse structure in a convolutional vision network can be approximated and covered b readily available dense components.

如何发现最优结构呢? 可以这样考虑,较低的层次对应着图像的某个区域,使用1×1的卷积核仍然对应这个区域,使用3×3的卷积核,可以得到更大的区域对应。因而设计如图1。

bubuko.com,布布扣

图 1 Inception Module, Na?ve version

为了降维,使用1×1的核进行降维,设计如图2。降维能够起效主要得益于embedding技术的发展,即使较低的维度仍然可以包含很多信息。    

bubuko.com,布布扣

图 2 Inception Module with dimension reductions

在Filter concatenation层将1×1/3×3/5×5的卷积结果连接起来。

如此设计的好处在于防止了层数增多带来的计算资源的爆炸性需求。从而使网络的宽度和深度均可扩大。使用了Inception层的结构可以有2-3×的加速。

5. GoogLeNet

如图3所示。更详细的结构图太大请见原论文。

bubuko.com,布布扣

图 3 GoogLeNet incarnation of Inception architecture

6. Training Methodology

7. Experiments Setup and Results

bubuko.com,布布扣

图 4 performance of the competition

bubuko.com,布布扣

图 5 performance of fusions of Models

8. Reference

[1]. Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[J]. arXiv preprint arXiv:1409.4842, 2014.

原文:http://blog.csdn.net/stdcoutzyx/article/details/40759903

评论(0
© 2014 bubuko.com 版权所有 - 联系我们:wmxa8@hotmail.com
打开技术之扣,分享程序人生!