天天看點

CNN基礎論文 精讀+複現----VGG(二)

文章目錄

  • ​​前言​​
  • ​​第6-8頁​​
  • ​​第10-13頁​​
  • ​​總結​​

前言

之前的部分,在這-> CNN基礎論文 精讀+複現----VGG(一)

後面就是評估和總結了以及代碼複現了。

第6-8頁

第6頁開始就是評估他的模型和結論了,

之前有說過VGG中的ConvNet輸入從S中裁剪(我們也将S稱為訓練尺度)。考慮兩種方法來設定訓練尺度S,一種方法是固定S的大小,另一種方法是從一定區間内随機取S(測試集記為Q)。

4.1小節 固定Q的大小然後做的評估,

4.2小節 中的Q不再固定,而是取幾個值。

結果對比給了兩張圖 : 第一張是固定Q,第二張不固定Q。

簡單的說一下 就是A-E的實驗組,後面的train(S)就是之前說的訓練尺度大小S。測試集test(Q) 就是取值固定或者幾個值作為測試集 記作Q。後面就是top1和top5錯誤率。

CNN基礎論文 精讀+複現----VGG(二)
CNN基礎論文 精讀+複現----VGG(二)

這一大段總結下來就幾點:

  • 深層小卷積核比淺層大卷積核效果更好,(但1*1沒有3 * 3好,C實驗組為 1 * 1 D實驗組為3 * 3),
  • 4.1就是固定Q 大小做評估,4.2 小節就是 Q的大小是一個範圍的情況下做的評估。
  • 層數越深,誤差越小,但作者在論文中說到,當使用imagenet資料集的時候,VGG到達19層深度時飽和,更深的層次對精度沒有提升,但如果資料集變的更大,則更深的網絡可能有幫助。
  • 在上表中可以看到A組和A-LRN組的top1和top5錯誤率幾乎持平,也就是在這裡推翻了之前Alex的LRN層。
  • 可以看到當訓練集S的大小不固定的時候,測試出來的效果會比較好,且Q的測試集變動時 整體上相比 較上一個表,錯誤率有明顯降低。

4.3小節;

一句話總結:多裁剪(multi-crop)評估比起密集(dense)評估,效果更好。而且兩者具有互補作用,結合兩種方式,效果更好。

密集評估(Dense):就是在第三章說的将全連接配接層都變成卷積網絡的那種訓練方式。

多裁剪 (multi-crop):即對圖像進行多樣本的随機裁剪,然後通過網絡預測每一個樣本的結構,最終對所有結果平均。

後面作者給了張圖:

CNN基礎論文 精讀+複現----VGG(二)

可以看到 單方法的 multi-crop 比dense的方法要稍好一些。

這裡就搞笑了,作者在3.2節親口批評了别人使用多裁剪的方法,你這裡就又用上别人的方法了哈哈6666。

4.4小節

一句話:結合多個模型,最後的結果通過sofamax平均再結合判斷,發現這樣的效果會好很多。

然後作者放了一張圖:

CNN基礎論文 精讀+複現----VGG(二)

可以看到 當使用DCE等7個變形網絡結合時,top5錯誤率7.3左右,結合DE并使用密集型評估,top5錯誤率降低到7.0,結合DE并使用密集型加多裁剪的方法,top5錯誤率降低到了6.8。

4.5小節

這節可以不看,總結下來作者就是一句話:我們的模型很強,你們都不行,即使第一名的Googlenet,我們也隻和他們差一點點,在雷式對比法中甚至還強些…實在是高,我學會了,如果有一天我寫論文,我也這麼幹。

第10-13頁

這裡是一些附錄嗎這算是,,,就是在說VGG的後續改版與更新的一些東西。 有兩種測試方法,第一種單類回歸(SCR),最後的預測輸出是4-D,而第二種每類回歸(PCR),最後的預測輸出包含了1000個類别即4000-D。

簡單來說 SCR :檢測的時候所有類别共享一個框。

PCR: 每個類别一個框。

然後還說了一堆什麼亂七八糟的沒怎麼仔細看,最後就是作者發現單類回歸效果比多類要好。

總結

感覺這篇論文并沒有前幾篇提出的東西猛,也不知道是不是我還沒學到精髓。反而感覺作者逐漸的現代論文化(誇自己貶低别人造噱頭)哈哈 ~,

優點,新意總結:

  • VGG推翻了之前Alex裡提出的LRN模型。
  • 提出了 3 * 3的卷積核和 1 * 1 的卷積核 及2 * 2 池化。
  • 使用了密集型訓練方法(全連接配接->卷積層),可适應各種尺寸的圖檔。
  • 層數更深、特征圖更寬
  • VGG塊的概念。
  • 多模型混合訓練。
  • 預訓練和遷移學習

這篇文章其實還有很多沒有明白的地方,比如他這個VGG塊,我還沒明白這個塊具體怎麼展現的,代碼中怎麼展現的 ,而且他這個塊和一下都列出來的有啥差別啊。。

還有最後的多模型混和訓練我并不知道怎麼在代碼中實作(屬實是能力有限)。

我覺得對于我們來講,這篇論文最大的作用就是做遷移學習吧?看到很多畢設項目都是拿VGG16做遷移學習。

繼續閱讀