天天看點

《Adversarial learning for weakly-supervised social network alignment》翻譯

Abstract

如今,一個自然人加入多個社交網絡來享受不同種類的服務是很常見的。跨多個社交網絡連接配接相同的使用者,也稱為社交網絡對齊,是一個重大的研究挑戰的重要問題。現有的方法通常在成對的樣本級别上連結社會身份,當可用的注釋數量有限時,這可能導緻性能表現并不優越。在同構資訊的激勵下,本文将社交網絡中的所有身份作為一個整體來考慮,并從分布層面對社交網絡進行對齊。我們的目标是學習一個投影函數,不僅最小化兩個社交網絡中使用者身份分布的距離,而且将可用的标注作為學習指導。我們提出了三種模型SNNA u _u u​、SNNA b _b b​和SNNA o _o o​來學習弱監督對抗學習架構下的投影函數。然後,我們評估該模型在多個資料集上的表現,結果證明我們的方案的優越性。

Introduction

最近社交網絡變得越來越流行,使用者可以同時在多個平台注冊賬戶,享受不同類型的服務。在每個社交平台上,使用者可以建立一個身份來代表他/她獨特的個人形象。跨多個社交平台對同一自然人身份進行比對,即社交網絡比對,因其巨大的實用價值而受到越來越多的關注。成功的網絡對齊使許多應用受益,如朋友推薦、資訊擴散預測和網絡動力學分析。

現有的大多數方法都是有監督的,需要大量的人工标記樣本來訓練分類器将比對的辨別對與不比對的辨別對分離開來。考慮到獲得标記執行個體的高成本,提出了幾種半監督方法來合并未标記執行個體以提供補充資訊。半監督方法可以利用未标記的資料來幫助捕獲底層資料分布的形狀,這在實踐中更有希望實作社交網絡對齊。

現有的半監督方法通常在成對樣本級别執行網絡對齊。 他們首先将來自不同社交網絡的身份嵌入到一個共同的潛在空間中,其中來自同一網絡的相似身份應緊密分布,而跨社交網絡的帶注釋身份對也應分組在一起。 然後将身份之間的距離視為網絡對齊的名額。 這種方法的主要局限性在于它們仍然需要大量注釋以確定性能。 如圖1所示,席琳·迪翁(Celine Dion)和阿黛爾(Adele)是受歡迎的歌手,史蒂芬·庫裡(Stephen Curry)是NBA球員。 考慮到他們的共同利益,席琳·迪翁(Celine Dion)和阿黛爾(Adele)在兩種平台(Twitter和Facebook)上的距離都更近。 假設選擇Celine Dion作為帶注釋的身份對。 傳統的樣本級半監督方法将生成潛在空間,如圖2a所示。 席琳·迪翁(Celine Dion)的身份緊密分布,而潛在空間保留了單個網絡内部的原始身份相似性。 但是,對于Twitter中的斯蒂芬·庫裡(Stephen Curry),他最近的Facebook鄰居是阿黛爾(Adele),而不是他在Facebook中的身份,這導緻了錯誤比對。

《Adversarial learning for weakly-supervised social network alignment》翻譯
《Adversarial learning for weakly-supervised social network alignment》翻譯

與之前的半監督作品不同,我們将整個社交網絡中的所有身份視為一個整體,并在分布級别上進行身份對齊。 如圖1所示,由于利益共享,兩個原始功能空間中的身份分布呈現相似的形狀,這被稱為跨社會網絡的同構。如圖2b所示,如果我們可以通過一組操作Φ(例如,轉置)來轉換Twitter空間中的身份分布,以最大程度地減少與Facebook中的身份分布之間的距離,則同一自然人的身份将彼此靠近分組。受同構啟發,我們将社交網絡對齊問題轉化為學習操作Φ,以最小化兩個分布之間的距離。 在之前的工作之後,我們将運算Φ稱為投影函數。 通過從全局的角度介紹同構,進一步降低了對樣品水準監督的要求。

這個想法需要一個分布距離的度量标準,為此我們引入了wasserstein距離(WD)。與KL散度等其他名額相比,WD是對稱的,即使兩個分布沒有重疊也能夠測量兩個分布之間的距離。我們将每個身份分布視為一組權重積分,而WD則表征将一組積分傳輸到另一組積分中的最低成本。 但是,WD最小化是在分布級别上以無監督方式執行的,而标記的身份對則将指導資訊保留在樣本級别中。考慮到完全不同的目的和方案,我們利用可用的注釋作為名額來指導分布最小化問題具有挑戰性。

我們總結了我們的貢獻:

  • 我們從一個新的角度研究了弱監督社會網絡一緻性的新問題,引入分布緊密度以提供補充資訊。
  • 我們設計了三個基于對抗性學習的模型,以最小化分布距離并同時合并可用的注釋。
  • 我們在五組資料集上評估提出的方案, 實驗結果表明了所提出模型的優越性能。

預備工作和問題定義

WD通過估計将一個分布改變為另一個分布的最小工作量來衡量兩個分布之間的緊密性。WD的正式定義如下:

《Adversarial learning for weakly-supervised social network alignment》翻譯

在這個任務中, P I \mathbb{P}^I PI和 P I \mathbb{P}^I PI是兩個離散機率分布, P = ∑ i p i δ x i \mathbb{P}= \sum _i p_i \delta _{x_i} P=∑i​pi​δxi​​, x i x_i xi​是分布 P \mathbb{P} P, p i p_i pi​的一個樣本, p i p_i pi​是其對應的機率能力, δ x i \delta _{x_i} δxi​​是狄拉克函數, Γ ( P I , P J ) \Gamma (\mathbb{P}^I, \mathbb{P}^J) Γ(PI,PJ)表示與邊緣 P I \mathbb{P}^I PI和 P J \mathbb{P}^J PJ的聯合機率分布 γ ( x , y ) γ(x,y) γ(x,y)。函數d測量兩個樣本之間的ground距離(例如歐幾裡德距離)。WD的目标是找到理想的聯合分布,以達到期望的内界。

問題定義

我們用到了一個社交網絡 N = { V , W , P } N=\left \{ V,W,P \right \} N={V,W,P},其中 V = { v 1 , v 2 , . . . , v n } V=\left \{ v_1, v_2, ..., v_n \right \} V={v1​,v2​,...,vn​},是包含n個使用者的使用者集。每一個使用者 v i v_i vi​由一個d維特征向量 w i w_i wi​表示, w i w_i wi​組成了特征矩陣 W ∈ R d × n W\in \mathbb{R}^{d\times n} W∈Rd×n, P ∈ R 1 × n P\in\mathbb{R}^{1\times n} P∈R1×n包含社交使用者的拓撲影響,例如輸入度或輸出度的計數。

定義1 弱監督社交網絡對齊

給定兩個部分對齊的社交網絡 O = { V O , W O , P O } O=\left \{ V_O, W_O,P_O \right \} O={VO​,WO​,PO​}, E = { V E , W E , P E } E=\left \{ V_E, W_E,P_E \right \} E={VE​,WE​,PE​}和一些比對的身份對 M = { ( v o , v e ) ∣ v o ∈ V O , v e ∈ V E } M = \left \{ (v_o,v_e)|v_o \in V_O ,v_e \in V_E \right \} M={(vo​,ve​)∣vo​∈VO​,ve​∈VE​},我們的目标是發現其他所有的比對身份對 Y = { ( v o , v e ) ∣ v o ∈ , v e ∈ V E , ( v o , v e ) ∉ M } Y = \left \{ (v_o,v_e)|v_o \in ,v_e \in V_E,(v_o,v_e)\notin M \right \} Y={(vo​,ve​)∣vo​∈,ve​∈VE​,(vo​,ve​)∈/​M},其中, v o v_o vo​和 v e v_e ve​屬于同一個自然人。

我們假設兩個網絡作品中的特征向量的維數都是d,這很容易被流行的網絡作品嵌入模型所滿足。在這裡,我們旨在學習一個理想的比對身份的投影函數。是以,所研究的問題可以進一步澄清如下:

定義2 社交網絡對齊的投影函數

給定源分布 P O \mathbb{P}^O PO, 目标分布 P E \mathbb{P}^E PE和注釋集 M = { ( v o , v e ) ∣ v o ∈ V O , v e ∈ V E } M = \left \{ (v_o,v_e)|v_o \in V_O ,v_e \in V_E \right \} M={(vo​,ve​)∣vo​∈VO​,ve​∈VE​}。目标是學習一個映射函數 Φ \Phi Φ,映射函數 Φ \Phi Φ滿足:(1) Φ \Phi Φ應該最小化原模型分布 P Φ ( O ) \mathbb{P}^{\Phi(O)} PΦ(O)和目标模型分布 P Φ ( E ) \mathbb{P}^{\Phi(E)} PΦ(E)的WD距離。(2) 對于注釋集 M M M中的比對對( v o , v e v_o, v_e vo​,ve​), Φ \Phi Φ應該最小化映射源點 Φ ( v o ) \Phi (v_o) Φ(vo​)和映射目标點 v e v_e ve​。

訓練過程結束後,給定一個源身份 v o v_o vo​,可以根據目标社交網絡中的身份 v e v_e ve​與ground距離 d ( Φ ( v o ) , v e ) d(Φ(v_o),v_e) d(Φ(vo​),ve​)來選擇他/她的比對候選人。較小的ground距離意味着兩個相同的人有更大的機會成為同一個自然人。

對抗學習架構

遵循先前的工作,我們選擇線性變換作為投影函數 Φ Φ Φ。給定一個具有特征向量 w o w_o wo​的源節點 v o v_o vo​,其投影點定義為: Φ ( w o ) = G × w o Φ(w_o)=G×w_o Φ(wo​)=G×wo​,其中 G ∈ R d × d G∈R^{d×d} G∈Rd×d為變換矩陣。所研究的問題可以了解為矩陣 G G G的學習問題,我們也嘗試用神經網絡的非線性投影函數,但效果不好。這可能是因為非線性投影嚴重地改變了輸入分布,進一步破壞了同構。Zhang等人引入GAN模型進行雙語詞彙歸納任務。受此啟發,我們設計了以下SNNA模型,它不僅可以最小化WD,而且還包含了注釋。

單向投影模型SNNA u _u u​

首先我們提出了單向投影模型SNNA u _u u​,它隻将源分布單向投影到目标社交空間。圖3顯示了SNNA u _u u​的架構。發生器 G G G可被視為投影函數 Φ Φ Φ,而鑒别器 D D D設計用于估計投影源分布 P G ( O ) \mathbb{P}^{G(O)} PG(O)和目标分布之間 P E \mathbb{P}^{E} PE的WD。SNNA u _u u​的目标可以大緻定義如下:

《Adversarial learning for weakly-supervised social network alignment》翻譯

其中, w o w_o wo​是來自源分布 P O \mathbb{P}^O PO的源身份 v o v_o vo​的特征向量(受到 P O \mathbb{P}^O PO的拓撲影響 p o p_o po​), w e w_e we​是目标分布的樣本。周遊所有可能的聯合分布以計算期望的 i n f γ ∈ Γ ( P E , P G ( O ) ) inf _{\gamma \in \Gamma (\mathbb{P}^E, \mathbb{P}^{G(O)})} infγ∈Γ(PE,PG(O))​是很困難的(Zhang et al.2017b)。 Vallani等當ground距離d定義為歐幾裡得距離時,基于Kantorovich-Rubinstein對偶性提出了WD最小化目标的簡單版本:

《Adversarial learning for weakly-supervised social network alignment》翻譯

函數 f f f 必須是K-Lipschitz連續的,這意味着對于所有 x 1 , x 2 ∈ R x_1,x_2∈R x1​,x2​∈R, ∣ f ( x 1 ) − f ( x 2 ) ∣ ⩽ K ∣ x 1 − x 2 ∣ \left | f(x_1) - f(x_2) \right | \leqslant K\left | x_1 -x_2 \right | ∣f(x1​)−f(x2​)∣⩽K∣x1​−x2​∣,而且 K > 0 K>0 K>0是Lipschitz常數。該目标旨在确定所有可能K-Lipschitz函數的上确界。前饋神經網絡具有強大的逼近能力(Hornik 1991)。是以我們選擇一個多層前饋網絡以找到一個理想函數 f f f,該函數在圖3中定義為鑒别器 D D D。鑒别器的目标函數是學習一個理想函數 f f f來估計 P E ) \mathbb{P}^{E)} PE)和 P G ( O ) \mathbb{P}^{G(O)} PG(O)之間的WD距離:

《Adversarial learning for weakly-supervised social network alignment》翻譯

其中 θ θ θ是在鑒别器中使用的多層神經網絡中設定的參數。 我們引入了裁剪技巧來滿足K·Lipschitz限制,該限制在每次梯度更新後将權重 θ θ θ限制在一個小視窗[-c,c]中。

生成器G被設計為最小化估計的WD。 在公式(2)中,G僅存在于第二項中,是以我們旨在通過最小化以下目标來學習理想的生成器:

《Adversarial learning for weakly-supervised social network alignment》翻譯

随着loss逐漸減少,判别器的WD逐漸減小,進而導緻同一個人的身份在目标空間中組合在一起。

同時,我們還結合了一些注釋來指導投影函數的學習過程,如圖3中的元件A所示。假設在一個訓練批次中,我們有一組源身份及其比對的目标身份表示為Mt ⊂M。對于标記集合Mt中的比對身份對 ( v o , v e ) (v_o,v_e) (vo​,ve​),我們旨在最小化投影源節點 G ( v o ) G(v_o) G(vo​)與目标節點 v e v_e ve​之間的距離:

《Adversarial learning for weakly-supervised social network alignment》翻譯
《Adversarial learning for weakly-supervised social network alignment》翻譯

其中 w w w是相應身份的特征向量。 該目标結合了可用的注釋,以促進學習投影功能。 λ c λ_c λc​是控制損耗 L C L_C LC​權重的超參數。

這是SNNA u _u u​的訓練過程算法:

《Adversarial learning for weakly-supervised social network alignment》翻譯

首先,我們從第2行到第8行對判别器進行訓練,這是為了避免GAN崩潰的風險。然後通過最小化目标(3)和(4)的權重組合來更新生成器,如第9至13行所示,這意味着學習的生成器不僅最小化估計的WD,而且适合可用的注釋。

雙向投影模型SNNA b _b b​

單向模型SNNA u _u u​對投影矩陣G沒有限制。Mu等已證明正交投影有助于更好地對齊使用者身份。 正交投影在理論上因其數值穩定性而吸引人使用正交投影時,投影分布是通過旋轉和縮放在平面中原始分布的反射,這将保留原始分布的内部特征。 是以,我們在投影矩陣的學習中增加了正交限制。

将傳統的正交限制引入對抗學習很麻煩,因為它們的優化很困難。我們還設計了雙向投影模型SNNA b _b b​以潛在地引入正交限制。 如圖4所示,SNNA b _b b​在兩個方向上進行投影。如果投影函數G使分布 P G ( O ) \mathbb{P}^{G(O)} PG(O)和 P E \mathbb{P}^{E} PE之間的WD最小,則其轉置形式 G T G^T GT 應該能夠使分布 P G T ( E ) \mathbb{P}^{G^T(E)} PGT(E)和 P O \mathbb{P}^{O} PO之間的WD最小化。考慮到輸入網絡部分對齊而分布 P E \mathbb{P}^{E} PE和 P G ( O ) \mathbb{P}^{G(O)} PG(O)不同,則學習的投影矩陣隻能是自洽的,可以接近于正交矩陣,但不完全正交。

《Adversarial learning for weakly-supervised social network alignment》翻譯

SNNA b _b b​模型可以很容易地由具有共享投影矩陣G的兩個SNNA u _u u​模型實作。第一個SNNA u _u u​模型利用投影函數G作為生成器和判别器 D e D_e De​來估計分布 P G ( O ) \mathbb{P}^{G(O)} PG(O)和 P E \mathbb{P}^{E} PE之間的WD。 第二個SNNA u _u u​模型使用生成器 G T G^T GT作為投影和判别器,以估計分布 P O \mathbb{P}^{O} PO和 P G T ( E ) \mathbb{P}^{G^T(E)} PGT(E)之間的WD。兩個SNNA u _u u​模型的優化是疊代進行的。 訓練結束後,我們仍然使用學習的投影函數G為網絡O中的源身份選擇目标候選者。

正交投影模型

與SNNA b _b b​中使用的自洽假設不同,我們進一步引入了更嚴格的正交限制。 如果G是一個正交矩陣,則應使用轉置矩陣 G T G w o = w o G^TGw_o = w_o GTGwo​=wo​輕松地從其投影版本中恢複源分布,這可以確定社會身份和自然人可以雙向轉換。 由于重建後的分布可能與原始分布相同,是以學習的投影矩陣比SNNA b _b b​模式更接近正交矩陣。 是以,我們設計了一個重構元件,将更嚴格的正交限制整合到對抗訓練模型中。

如圖5所示,我們旨在通過轉置矩陣 G T G^T GT從投影分布 R G ( O ) \mathbb{R}^{G(O)} RG(O)重構原始源分布 R O \mathbb{R}^{O} RO。 重建的源分布定義為 R O ′ \mathbb{R}^{O'} RO′,我們引入以下目标函數以最小化原始分布和重建的源分布之間的差異:

《Adversarial learning for weakly-supervised social network alignment》翻譯

其中 λ r λ_r λr​是用于控制重構誤差權重的超參數。 随着損耗 L R L_R LR​的最小化,學習矩陣G将更加正交。 通過将新定義的重建損失添加到算法1的第12行中,可以輕松地從SNNA u _u u​擴充SNNA o _o o​的訓練過程。将了解投影矩陣是正交的,拟合可用的注釋并使投影的源分布與投影之間的WD最小化。SNNA o _o o​中生成器的損失函數是距離最小損失 L G L_G LG​,注釋指導損失 L C L_C LC​和重構損失 L R L_R LR​的權重和。

《Adversarial learning for weakly-supervised social network alignment》翻譯

Experiments

Datasets 資料集我們使用兩對社交網絡資料集和三對學術合著者資料集進行評估。

資料集由我們公司的合著者抓取并格式化。 表1顯示了詳細的統計資訊。

《Adversarial learning for weakly-supervised social network alignment》翻譯

Data preprocessing

對于Twitter使用者,他們的功能空間是基于釋出的推文和好友關注關系而建構的。 對于推文,我們首先使用NTLK2詞幹處理已爬網的推文并删除停用詞或稀有詞。 之後,将單個使用者釋出的推文作為一個整體進行收集,然後由tf-idf特征向量表示。 我們進一步利用屬性保留網絡嵌入模型TADW将網絡拓撲資訊和文本屬性封裝到低維潛在空間中。 其他資料集的特征空間也使用TADW構造,但使用者屬性有所不同(Flickr使用者的已釋出圖檔标簽和加入的組,新浪微網誌使用者的微網誌文本和主題标簽,以及豆瓣的興趣标簽和加入的組)。 對于社交網絡,關注者的标準化計數被視為使用者 v i v_i vi​的拓撲權重 p i p_i pi​,它将被用來從身份分布中采樣訓練樣本。

對于DBLP資料集,我們首先根據2015年,2016年和2017年的出版物建構了三個共同作者子網絡。對于共同作者子網絡中的每個節點(作者),我們在相應的文獻中收集該作者的已發表論文。 已發表論文的标題和摘要作為節點屬性。 文本屬性被格式化為tf-idf向量,然後由TADW通過共同作者關系嵌入到潛在特征向量中。 對于合著者網絡,我們将節點的度數用作其采樣權重。 請注意,獨立學習不同網絡的特征空間可以確定我們建議的通用性。

Baseline Methods

我們将我們的模型與以下最新的基線方法進行了比較,包括半監督和監督模型。

  • MAH 是一個半監督模型,利用子空間學習算法,利用社會結構來提高連結性能。
  • COSNET是一個基于能量的模型,考慮了多個網絡之間的局部和全局一緻性。開發了一種有效的次梯度算法來訓練模型。
  • IONE是一個統一的優化架構,用于聯合訓練用于捕獲身份相似性的網絡嵌入目标和用于跨網絡連接配接身份的使用者對齊目标。

Parameter setup

對于我們的建議,将潛在特征空間的維數d設定為100。在所有SNNA模型中,鑒别器D是僅具有一個隐藏層的多層感覺器網絡,因為過于強大的鑒别器可能會導緻GAN損壞訓練并使生成器失去對抗能力。對于生成器G,其投影矩陣被随機初始化為正交矩陣。 最小訓練批量的大小為256,學習率α設定為0.0001。 如算法1所述,在每次訓練疊代中将對鑒别器進行 n d n_d nd​次訓練,并将 n d n_d nd​設定為5。裁剪權重c為0.01,注釋權重λc設定為0.2,重構權重 λ r λ_r λr​設定為0.3。 基線是根據原始檔案執行的。 對于CoLink模型,我們将SVM分類器用作基于屬性的模型。 ULink模型是通過限制凹凸程式優化來訓練的。

Evaluation Metric

遵循先前的工作,我們選擇Hit-precision 作為評價名額。

《Adversarial learning for weakly-supervised social network alignment》翻譯

其中 h i t ( x ) hit(x) hit(x)是比對的目标使用者在傳回的前k個候選目标身份中的排名位置。 根據預計的源辨別與目标辨別之間的ground距離選擇最合适的候選對象。 Hit-P校正由比對的身份對分數的平均值計算: ∑ 0 m h ( x i ) m \frac{\sum_{0}^{m}h(x_i)}{m} m∑0m​h(xi​)​,其中m是比對的身份對中源身份的數量。

Experimental Results

對于每個資料集,我們随機選擇比對的身份對的 T t r T_{tr} Ttr​部分作為訓練資料,并随機選擇 N t e N_{te} Nte​個比對的身份對作為測試集。 在這裡,我們将訓練比率 T t r T_{tr} Ttr​固定為10%,并将測試集 N t e N_{te} Nte​的大小設定為500。我們将建議的模型與基線進行比較,并報告k設定不同時的Hit-Precision分數。 我們重複此過程三遍,并報告平均分數。

《Adversarial learning for weakly-supervised social network alignment》翻譯

表2示出了實驗結果。 可以看到,所有方法在DBLP資料集上的表現都比在社交網絡上更好。 這可能是因為合著者網絡更加密集并且使用者屬性經過格式化和整潔。 由于COSNET引入了全局和局部拓撲相似性,是以其性能優于MAH方法。 作為一種監督模型,ULink在弱監督學習環境中實作了不良表現,因為它需要很大一部分注釋(例如原始作品的80%)才能達到理想的性能。 CoLink可以在基線之間實作最佳性能,因為它精心設計了一個目标函數來合并屬性,而基于屬性的模型和基于關系的模型可以互相促進。

人們還可以看到,所有提案在具有不同設定的兩個資料集上均優于基線方法。

這是因為引入了分布緊密度資訊作為補充。 單向模型 S N N A u SNNA_u SNNAu​擊敗最佳基準(CoLink)約3%。 通過引入自洽限制, S N N A b SNNA_b SNNAb​的性能進一步提高,這證明正交投影矩陣有助于更好地對齊身份。 S N N A o SNNA_o SNNAo​在所有方法中均達到最佳性能,比最佳基準(CoLink)高出7%。 與更嚴格的正交限制相比, S N N A o SNNA_o SNNAo​的性能比 S N N A b SNNA_b SNNAb​進一步提高了3%。

Learing Behavior of the SNNA o _o o​

對抗性學習也因其不穩定的訓練行為而聞名。 是以,我們提出了在k = 5的DBLP1516資料集上 S N N A o SNNA_o SNNAo​模型的訓練軌迹。 每進行1萬次訓練後,我們将儲存一個檢查點模型,最後可以得到100個檢查點模型。 對于每個檢查點模型,我們将其鑒别器的輸出值記錄為WD近似值,并在社交網絡對齊任務中記錄其Hit-P校正分數。 請注意,我們将近似的WD距離重新縮放為0到10的範圍。

《Adversarial learning for weakly-supervised social network alignment》翻譯

如圖6所示,随着訓練批次的增加,WD降低,而HitP矯正分數增加。 結果表明:1)提出的模型可以有效地降低動态配置設定情況下的WD。 2)較小的WD導緻更好的網絡對齊性能。 是以,我們可以将估計的WD距離最小的檢查點模型儲存為最終模型。

Parameter sensitivity study

最後分析了所提出的SNNA o _o o​模型的參數靈敏度。我們首先分析了訓練比率 T t r T_{tr} Ttr​對Twitter-Flickr資料集上模型性能的影響。我們修正了k=5,并用不同的 T t r T_{tr} Ttr​集展示了SNNA o o o的性能。最佳基線CoLink也用于比較。從圖7a可以看出,随着 T t r T_{tr} Ttr​的增加,兩種方法的性能都提高了。SNNA o _o o​始終優于CoLink,而它們之間的性能差距往往較小。這是因為注釋可以彌補CoLink忽略分布貼近度資訊的限制。接下來,我們研究重建權重 λ r λ_r λr​對模型性能的影響。當增大 λ r λ_r λr​時,Hit-Precision得分先增大後減小,說明适當的正交限制有助于提高性能。較大的 λ r λ_r λr​将使訓練過程更集中于偵察任務,這可能會中斷優化以達到最小的WD距離。

Related Work

現有的社會網絡比對方法大緻可以分為有監督的、半監督的和無監督的。大多數現有的相關工作都是在監督下進行的,其目的是訓練一個二進制分類器,将比對的使用者身份對與不比對的使用者身份對分開。曼等人通過在潛在低維空間中連接配接身份,提出了一個有監督的社會網絡工作對齊模型。将兩個網絡中的使用者身份映射到一個潛在空間,并學習投影函數來連結屬于同一自然子的身份。ULink也是一種嵌入監督方法。ULink首先将多個網絡中的使用者身份映射到一個潛在的空間中,然後最小化同一個人的使用者身份之間的距離,最大化不同人的使用者身份之間的距離。考慮到實作足夠的注釋來完全訓練監督模式是非平凡且耗時的,提出了一些非監督的方法,這些方法主要依靠強鑒别特征來連結使用者身份UUIL是這項工作的基礎,但UUIL側重于無監督學習,而SNNA旨在加入少量注釋以提高對齊性能。最近,一些半監督方法被提議納入未标記資料以捕獲内部資料分布。Korula等人引入了一種流行的半監督模型,根據基于鄰域的網絡特征執行UIL任務。CosNet(Zhang等人。是一個基于能量的模型,通過考慮本地和全球一緻性來連結使用者身份。

現有的半監督方法通常将使用者身份從成對樣本層連結起來,在注釋非常有限的情況下無法獲得理想的性能。是以,在本文中,我們的目标是從分布層次上執行社會網絡對齊。将所研究的問題轉化為分布投影函數的學習,在對抗性訓練架構下求解。

Conclusion

本文研究了一類新的弱監督社會網絡對齊問題。結論是,我們從身份分布級别執行社交網絡對齊,這有助于減少所需注釋的數量。将所研究的問題轉化為一個理想的投影函數的學習,不僅可以最小化兩個社會網絡的身份分布之間的wasserstein距離,而且可以在投影空間中将可用的比對身份組合在一起。

此外,我們還提出了三個具有不同水準正交限制的SNNA u _u u​、SNNA b _b b​和SNNA o _o o​模型。

我們在多個資料集上評估了我們的建議,實驗結果證明了SNNA模型的優越性。

繼續閱讀