天天看點

Google最新開源Inception-ResNet-v2,借助殘差網絡進一步提升圖像分類水準

<a href="http://s5.51cto.com/wyfs02/M00/88/95/wKiom1f8WxqgEsDKAACH6SmOi3w436.jpg" target="_blank"></a>

    殘差連接配接(Residual connections )允許模型中存在shortcuts,可以讓研究學者成功地訓練更深的神經網絡(能夠獲得更好的表現),這樣也能明顯地簡化Inception塊。将兩種模型架構對比,見下圖:

<a href="http://s1.51cto.com/wyfs02/M02/88/95/wKiom1f8WzXyBPJyAABreDmx0fM699.jpg" target="_blank"></a>

<a href="http://s3.51cto.com/wyfs02/M00/88/91/wKioL1f8WzbBn5ozAADK1g_2wQ8913.jpg" target="_blank"></a>

   在第二幅Inception-ResNet-v2圖中最上部分,你能看到整個網絡擴充了。注意該網絡被認為比先前的Inception V3還要深一些。在圖中主要部分重複的殘差區塊已經被壓縮了,是以整個網絡看起來更加直覺。另外注意到圖中inception區塊被簡化了,比先前的Inception V3種要包含更少的并行塔 (parallel towers)。

如下方圖表所示,Inception-ResNet-v2架構的精确度比之前的最優模型更高,圖表中所示為基于單個圖像的ILSVRC 2012圖像分類标準得出的排行第一與排行第五的有效精确度。此外,該新模型僅僅要求兩倍于Inception v3的容量與計算能力。

例如,盡管Inception v3與Inception-ResNet-v2都很擅長識别每一條狗所屬的類别,這種新模型的性能更為顯著。例如,舊模型可能會錯誤地将右邊的圖檔識别為阿拉斯加雪橇犬,新模型Inception-ResNet-v2能夠準确地識别兩個圖檔中狗的類别。

<a href="http://s3.51cto.com/wyfs02/M01/88/91/wKioL1f8W2rDB-iOAAELOxEiS0Q349.jpg" target="_blank"></a>

阿拉斯加雪橇犬(左)和西伯利亞雪橇犬(右)。圖檔來源:維基百科。

為了使人們了解開始試驗,我們也将要釋出新型Inception-ResNet-v2預訓練執行個體,作為TF-Slim 圖像模型庫的組成部分。

看到本研究領域關于這一經過改進的模型所取得的進展,而且人們開始采用這種新模型,并将其性能在多種任務作對比,我們為此感到非常興奮。你也想要開始使用這種新模型嗎?讓我們一起來看看附帶的操作訓示,學會如何訓練,評估或微調一個網絡。

Inception-ResNet-v2具體代碼實作過程參見:

<a href="https://github.com/tensorflow/models/blob/master/slim/nets/inception_resnet_v2.py" target="_blank">https://github.com/tensorflow/models/blob/master/slim/nets/inception_resnet_v2.py</a>

本文轉自 stock0991 51CTO部落格,原文連結:http://blog.51cto.com/qing0991/1860550

繼續閱讀