天天看点

Google最新开源Inception-ResNet-v2,借助残差网络进一步提升图像分类水准

<a href="http://s5.51cto.com/wyfs02/M00/88/95/wKiom1f8WxqgEsDKAACH6SmOi3w436.jpg" target="_blank"></a>

    残差连接(Residual connections )允许模型中存在shortcuts,可以让研究学者成功地训练更深的神经网络(能够获得更好的表现),这样也能明显地简化Inception块。将两种模型架构对比,见下图:

<a href="http://s1.51cto.com/wyfs02/M02/88/95/wKiom1f8WzXyBPJyAABreDmx0fM699.jpg" target="_blank"></a>

<a href="http://s3.51cto.com/wyfs02/M00/88/91/wKioL1f8WzbBn5ozAADK1g_2wQ8913.jpg" target="_blank"></a>

   在第二幅Inception-ResNet-v2图中最上部分,你能看到整个网络扩展了。注意该网络被认为比先前的Inception V3还要深一些。在图中主要部分重复的残差区块已经被压缩了,所以整个网络看起来更加直观。另外注意到图中inception区块被简化了,比先前的Inception V3种要包含更少的并行塔 (parallel towers)。

如下方图表所示,Inception-ResNet-v2架构的精确度比之前的最优模型更高,图表中所示为基于单个图像的ILSVRC 2012图像分类标准得出的排行第一与排行第五的有效精确度。此外,该新模型仅仅要求两倍于Inception v3的容量与计算能力。

例如,尽管Inception v3与Inception-ResNet-v2都很擅长识别每一条狗所属的类别,这种新模型的性能更为显著。例如,旧模型可能会错误地将右边的图片识别为阿拉斯加雪橇犬,新模型Inception-ResNet-v2能够准确地识别两个图片中狗的类别。

<a href="http://s3.51cto.com/wyfs02/M01/88/91/wKioL1f8W2rDB-iOAAELOxEiS0Q349.jpg" target="_blank"></a>

阿拉斯加雪橇犬(左)和西伯利亚雪橇犬(右)。图片来源:维基百科。

为了使人们理解开始试验,我们也将要发布新型Inception-ResNet-v2预训练实例,作为TF-Slim 图像模型库的组成部分。

看到本研究领域关于这一经过改进的模型所取得的进展,而且人们开始采用这种新模型,并将其性能在多种任务作对比,我们为此感到非常兴奋。你也想要开始使用这种新模型吗?让我们一起来看看附带的操作指示,学会如何训练,评估或微调一个网络。

Inception-ResNet-v2具体代码实现过程参见:

<a href="https://github.com/tensorflow/models/blob/master/slim/nets/inception_resnet_v2.py" target="_blank">https://github.com/tensorflow/models/blob/master/slim/nets/inception_resnet_v2.py</a>

本文转自 stock0991 51CTO博客,原文链接:http://blog.51cto.com/qing0991/1860550

继续阅读