天天看點

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

A 品牌推出了一件連衣裙原創爆款,B 品牌趁機推出了“同款”,B 還很"機智"地修改了連衣裙的裙長、領型或袖型,以此規避知識産權糾紛,不過,這種做法已經行不通了。近日,由阿裡安全和浙江大學合作研發的創新 AI 算法提出了一種面向服飾版權保護的屬性感覺細粒度相似度學習方法,從傳統關注整體相似度細化到能夠關注于局部區域的特定屬性的相似度,進而進一步提升了甄别“局部抄襲”的準确率,為服飾版權保護提供更強大的技術支援。

也就是說,設計師做了一件原創設計,原來評判系統從整體對比原創者和抄襲者的圖樣,現在 AI 能迅速采集這件設計上的各個設計點,與抄襲者的設計圖樣比對,如果後者在多個點上與前者達到了某個相似度,系統可立刻判定抄襲成立,并知道哪些設計元素的相似度高。

解讀上述算法的論文《Fine-Grained Fashion SimilarityLearning by Attribute-Specific Embedding Network》(《面向服飾版權保護的屬性感覺的細粒度相似度學習》)被全球人工智能頂級會議 AAAI 2020 收錄,2 月 7 日至 12 日,AAAI 2020 在美國紐約召開。

更靈活的服飾版權保護度量方法

從視覺角度如何對原創設計進行保護是“服飾了解”面臨的一個重要問題,也是長久以來的一個巨大挑戰。

服飾圖像通常伴随着嚴重的變形,在風格、紋理、背景上也存在巨大的差異。現有的服飾了解方法在in-shop clothes retrieval [1, 2],cross-domain fashion retrieval [3, 4] 以及fashion compatibility prediction [5, 6] 等任務上進行了廣泛的研究。

這些方法傾向于考慮圖像整體的特征,為各種服飾學習單一的特征空間。随着時尚産業的發展,服飾傾向于具有更加豐富的屬性,單單從整體特征考慮已無法滿足需求,并且,抄襲通常也不是整體的抄襲,可能僅模仿某種局部設計;再者,對服飾了解的進一步細化能夠提高推薦系統的性能。

是以,浙江大學和阿裡安全的研究者從服飾版權保護出發,基于專業定義的服飾屬性,探索一種靈活有效的細粒度服飾相似度度量方法。

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

**圖 1全局嵌入空間(左) 特定屬性的嵌入空間(右)

**

如圖 1 所示,現有方法通常将兩張圖像映射到全局嵌入空間中度量相似性,而研究者提出的方法則根據不同的屬性(比如領型設計、袖長)選擇不同的嵌入空間,進而在相應的空間中計算在指定屬性下服飾的相似性。比如,可以在領型設計空間度量兩件服飾的領型設計是否相似,如果同為圓領,如何使得模型能夠靈活地進行任務切換,根據不同的屬性有不同的輸出?

據上述算法的研究者之一、阿裡安全圖靈實驗室進階算法專家華棠介紹,結合服飾屬性具有“局部性”的固有特點,他們利用視覺注意力機制将圖像從全局特征空間映射到不同的特征子空間中,在子空間中度量具體角度下的圖像相似度。

這種方法具有兩個優點:

  • 第一,不同屬性映射到不同子空間中,在不同子空間中度量細粒度的相似關系;
  • 第二,模型能夠端到端學習,不同相似性角度下的度量關系互相不影響,可以同時訓練。

模型解析

研究者提出了一個 Attribute-Specific Embedding Network (ASEN) 模型來學習多個特定屬性的嵌入空間。

ASEN 模型的整體結構模型由三部分組成:特征提取、屬性感覺的空間注意力(ASA)和感覺的通道注意力(ACA)。

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

圖 2 ASEN架構圖

考慮到特定屬性的特征通常與圖像的特定區域有關,隻需要關注某些相關區域。是以,研究者設計了 ASA 子產品,該子產品在特定屬性的引導下定位圖像中與給定屬性相關的服飾部位。

盡管屬性感覺的空間注意力能夠自适應地聚焦于圖像中的特定區域,但是相同區域仍可能與多個屬性相關,例如,領型設計屬性和領型顔色屬性都與領型周圍的區域相關聯。是以,研究者在 ASA 的基礎上進一步設計了 ACA 子產品,同樣在屬性的指導下捕捉與屬性相關的特征元素。

特征提取子產品通過卷積神經網絡(convolutional neural network, CNN)提取圖像特征,ASA 和 ACA 處于旁路,順序對 CNN 提取到的特征進行條件化映射。注意力子產品以額外的屬性輸入為引導,融合條件和圖像特征,使得最終的圖像特征滿足需要。

ASA 采用 attention map 的方式,通過融合圖像特征和屬性嵌入,産生注意力權重。首先屬性經過編碼,通過嵌入(Embed)和複制(Duplicate)操作被映射到公共度量空間中,圖像特征同樣經過一步變換(1x1 conv)映射到同樣的空間中。屬性嵌入和圖像特征經過内積運算在不同的空間位置上産生不同的相似度比較值,對不同通道上的相似度比較結果進行聚合(1x1 conv)将得到一個 attention map 用來調整原圖像特征在空間域上的分布。

雖然 ACA 子產品能夠關注到相關的圖像部位,但是對于由服飾屬性定義的 high-level 的服飾概念而言,同樣的部位仍然可能和多種屬性相關,比如屬性領型設計和領型顔色都和衣領部位相關。出于這樣的考慮,研究者采用屬性感覺的通道注意力子產品進一步在通道次元上捕捉關鍵的圖像特征。首先屬性同樣被嵌入到高維空間中,其次和圖像特征連接配接輸入到連續的兩個非線性的全連接配接層,分别進行次元縮減和次元增加 [8],産生的注意力權重對圖像特征進行調整。

實驗成果

研究者以在服飾場景下的細粒度相似度學習為目标,提出了 ASEN 網絡和兩種不同次元的注意力子產品。ASEN 能夠同時學習多種特定屬性的嵌入空間,因而能夠在相應的空間中度量細粒度的服飾圖像相似度,是一種簡潔有效的端到端模型。大量的定量定性實驗證明了模型的有效性和可解釋性。

研究者在 FashionAI、DARN、DeepFashion 資料集上進行了特定屬性的服飾檢索實驗,在 Zappos50k 資料集上進行了三元組關聯預測實驗。

兩種實驗形式不同,但本質相同,即均要求相對于某種屬性,相似服飾的距離近,不相似服飾的距離遠,而屬性特異的服飾檢索實驗對檢索傳回序列的要求更高。結果表明 ASEN 相對于不同的對比模型,在各種屬性上均能夠取得一緻顯著的性能提升。在屬性特異的服飾檢索實驗中,對不同的 query 樣本,設定不同的屬性條件,檢索出的結果計算 mean AP。表 1-3 展示了三個資料集上每個屬性下的性能和平均性能。在 Zappos50k 資料集,研究者采用 [7] 的測試方式,也取得了更高的性能。

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

表格 1 FashionAI 資料集檢索性能

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

表格 2 DARN 資料集檢索性能

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

表格 3 DeepFashion attribute prediction benchmark檢索性能

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

表格 4 Zappos50k資料集Triplet Prediction

研究者還展示了一些定性實驗結果,包括在 FashionAI 資料集上的檢索結果,空間注意力機制可視化結果以及屬性子空間可視化結果;在 DeepFashion 資料集還進行了in-shop clothes retrieval 的 reranking 結果,顯示了ASEN的潛在應用價值。

下圖 3 展示了 FashionAI資料集上的 Top-8 檢索結果,對屬性相關部位放大展示,可以看到 V 領服飾能夠檢索出 V 領服飾(第一行),無袖服飾能夠檢索出無袖服裝(第二行),而除了目标屬性之外,其他特征表現出明顯的多樣性,例如傳回服飾款式、色調、種類、背景各不相同。圖4展示了對 ASA 子產品進行可視化的結果模型能夠定位屬性所關聯的部位,對于複雜的背景、模特姿勢等變化具有較強的魯棒性,最後一組圖像展示了對于無法從圖像中識别的屬性的注意力結果。

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

圖 3 FashionAI資料集檢索結果

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

圖 4 空間注意力子產品可視化結果

研究者還對 FashionAI 資料集上的八種屬性子空間進行了可視化,相同顔色的點表示圖像具有相同的屬性值,比如同為圓領衣服,在特定屬性的嵌入空間中,具有不同顔色的點可以很好地分離而具有相同顔色的點可以更加聚集。

換句話說,具有相同屬性值的圖像距離較近,而具有不同屬性值的圖像距離較遠,這說明通過 ASEN 學習的特定屬性嵌入空間對于單一屬性具有良好的判别性。

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

圖 5特定屬性空間的可視化結果

華棠還介紹,為了通過細粒度的服飾相似度度量提升其檢索性能,最後,他們将細粒度的服飾相似度模型應用到傳統的 in-shop clothes 檢索任務上來。使用一般的檢索模型産生初始的檢索傳回序列;接着利用 ASEN 模型在某種屬性上的細粒度相似性對初始序列進行重排,圖 5 展示了部分實驗結果。對于第一個例子,研究者通過袖子長度屬性對初步結果進行重新排序,短袖的圖檔排在了前面。很顯然,在重排之後,檢索的結果變得更合理。

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

圖 6 Fashion Reranking

AAAI 論文 | 為了“服裝設計”反抄襲,阿裡開發了一套版權算法

原文連結:

https://mp.weixin.qq.com/s/R9gXP6HPL0OzFqHc4JW4PA

論文連結:

https://arxiv.org/abs/2002.02814

參考文獻

    1. Liu, Z.; Luo, P.; Qiu, S.; Wang, X.; andTang, X. 2016. Deepfashion: Powering robust clothes recognition and retrievalwith rich annotations. In CVPR, 1096–1104.
    1. Ak, K. E.; Lim, J. H.; Tham, J. Y.; andKassim, A. A. 2018b. Efficient multi-attribute similarity learning towardsattribute-based fashion search. In WACV, 1671–1679.
    1. Huang, J.; Feris, R. S.; Chen, Q.; andYan, S. 2015. Cross-domain image retrieval with a dual attribute-aware rankingnetwork. In ICCV, 1062–1070.
    1. Ji, X.; Wang, W.; Zhang, M.; and Yang,Y. 2017. Cross-domain image retrieval with attention modeling. In ACMMultimedia, 1654–1662.
    1. He, R.; Packer, C.; and McAuley, J.2016. Learning compatibility across categories for heterogeneous itemrecommendation. In ICDM, 937–942.
    1. Vasileva, M. I.; Plummer, B. A.; Dusad,K.; Rajpal, S.; Kumar, R.; and Forsyth, D. 2018. Learning type-aware embeddingsfor fashion compatibility. In ECCV, 390–405.
    1. Veit, A.; Belongie, S. J.; andKaraletsos, T. 2017. Conditional similarity networks. In CVPR, 830–838.
    1. Hu, J.; Shen, L.; and Sun, G. 2018.Squeeze-and-excitation networks. In CVPR, 7132–7141.

繼續閱讀