天天看點

[論文閱讀]ResNetXt|Aggregated Residual Transformations for Deep Neural Networks

題目: Aggregated Residual Transformations for Deep Neural Networks

作者: Saining Xie; Ross Girshick ; Piotr Doll´ar;Zhuowen Tu; Kaiming He

看到Kaiming He就不陌生了吧

Motivation:

作者還是為了找到一種更優的方法或者卷積方式來做目标分類。于是乎提出ResNetXt。

Method:

作者想出這樣一種方法:

[論文閱讀]ResNetXt|Aggregated Residual Transformations for Deep Neural Networks

a)b)隻是concatenate的方法不一樣,c)是直接形成了group convlution。

ResNetXt 與ResNet的結構

[論文閱讀]ResNetXt|Aggregated Residual Transformations for Deep Neural Networks

我覺得就是把resnet改為group convolutions,但不記得是不是除了alext net這篇論文第一次提出這樣的group convolutions。

Experiment:

還是不多說直接上圖

[論文閱讀]ResNetXt|Aggregated Residual Transformations for Deep Neural Networks
[論文閱讀]ResNetXt|Aggregated Residual Transformations for Deep Neural Networks
[論文閱讀]ResNetXt|Aggregated Residual Transformations for Deep Neural Networks

【完結】

繼續閱讀