天天看點

《Sementic Segmentation using Adversarial Networks,Pauline Luc》論文翻譯摘要之前摘要引言相關工作

使用對抗網絡的語義分割

  • 摘要之前
  • 摘要
  • 引言
  • 相關工作

摘要之前

這是對這篇文章1的翻譯,由于每天的時間有限,翻譯的量不多,僅供自已以後檢視使用,如對大家有所幫助,深感榮幸!論文原文見此處

摘要

對抗訓練已被證明是生成圖像模組化的最先進的方法。在本文中,我們提出了一種對抗訓練方法來訓練語義分割模型。我們訓練了一個對抗網絡和一個卷積語義分割網絡用來判别分割圖來自标注資料還是來自分割網絡。我們提出這個方法的動機是使對抗訓練能檢測和修正标注分割圖和分割網絡産生的分割圖的高階不一緻。我們的實驗顯示我們的對抗訓練方法在Standford Background和PASCAL VOC 2012資料集上提高了準确率。

引言

語義分割是一個被表述為密集标記問題的視覺場景了解任務,該任務的目标是為輸入圖像的每個像素預測一個分類标簽。在2009年Grangier等人和2013年Farabet等人利用CNNs完成這項任務的早期工作之後,目前最先進的方法依賴于卷積神經網絡(CNN)方法。盡管CNN架構有很多差别,所有這些方法的一個共有的特征是所有的标簽變量被互相獨立的預測,至少在訓練期間是這樣的情況。因為獨立預測模型不能明确的捕獲空間連續性,各種各樣的後處理方法探索着去加強輸出标簽圖像的空間連續性。

條件馬爾可夫随機場(CRFs)是加強輸出标簽圖的空間連續性最有效的方法之一。上述的基于CNN的方法可以用來定義一進制勢函數。對于某些二進制勢函數,其在具有百萬個變量的全連接配接CRFs中的平均場積分可以使用最近提出的基于濾波器的技術處理。這些全連接配接CRFs在恢複輸出圖的細節的實踐中被證明極其高效。它也證明了二進制勢函數的豐富的類别能在本地全連接配接CRFs中使用CNN技術時被學習。

盡管取得了這些進展,但上述工作僅限于使用成對CRF模型。然而高階勢場也被證明有效,比如在超像素上以标簽連續性為基礎的魯棒高階條件。最近的工作顯示了在以基于CNN的分割模型中高階勢場的具體類别如何被融合。當這些高階勢場的參數被學習時,它們被限制在數中。

我們的興趣點在于加強沒有被限制于高階勢場的一個非常明确的類的高階一緻性。與其試圖直接融合CRF模型中的高階勢場,我們探索了一種基于對抗訓練的方法,這個方法的靈感來自于GoodFellow的生成對抗網絡(GAN)方法。最後,我們優化了一個目标函數,這個目标函數将傳統的多層交叉熵與對抗模式相結合。對抗方法促使分割模型産生對抗二進制模型不能把标注資料和标簽圖像區分開的标簽圖像。因為對抗模型能評估很多标簽變量的聯合配置,它能加強高階一緻性的形成。高階一緻性不能使用二進制模式加強,也不能通過每個像素的交叉熵損失測量。

我們的工作的貢獻如下:

  1. 我們第一次提出了對語義分割進行對抗訓練的應用,據我們所知;
  2. 對抗訓練方法加強了大範圍空間标簽鄰接性,沒有增加測試的時候模型的複雜性;
  3. 在Stanford Background和PASCAL VOC 2012資料集上,我們的實驗結果顯示我們的方法提高了标簽準确性。

在第二部分,我們讨論對抗訓練的相關工作和最近的基于CNN的語義分割模型。在第三部分,我們提出了對抗訓練方法和網絡架構,第四部分我們給出了實驗結果,以第五部分的讨論作為結束。

相關工作

對抗學習。Goodfellow等人提出了一個對抗方法以學習深度生成模型。他們的生成對抗網絡(GANs)從固定分布 pz(Z) 取樣本 z,并通過确定可微深度網絡 g(·) 來變換它們,以逼近訓練樣本 x 的分布。注意,由 g(·) 和 pz(·) 引起的 x 上的分布 px(·) 是難以評估的,因為 z 上的積分跨越高度非線性的神經網絡。對抗網絡常常定義一個損失函數,這回避了明确評估和逼近 px(·) 的需要。對抗模型對區分來自真實資料分布的樣本和來自深度生成模型的樣本進行優化訓練。

  1. https://arxiv.org/pdf/1611.08408.pdf ↩︎

繼續閱讀