天天看點

age estimation閱讀整理(一)

Attended End-to-end Architecture for Age Estimation from Facial Expression Videos

系統整合了CNN與RNN,在時間和空間上都增加注意力子產品

方法:在CNN中添加空間注意力子產品,得到的embedding送入包含時間注意力子產品的RNN中。

loss:MAE

資料集:UvA-NEMO Smile Database、UvA-NEMO Disgust Database

評價名額:MAE、标準差、P value of t-test

在實驗中得出幾個結論:相同年齡間隔下較多的樣本數目有助于網絡挖掘潛在特征、 眼底區域/鼻梁/法令紋/嘴周圍的區域在表情變化時産生的皺紋有助于系統進行年齡估計、表情從無到有的過程包含了大量資訊,而表情消失後的人臉仍然包含重要的資訊、自然的表情中包含的資訊相比故意做出的表情更有區分度

Deep Age Estimation Model Stabilization from Images to Videos

在實際試驗中發現直接将CNN得到的特征映射到年齡上的方法在面對視訊資料時缺乏穩定性,是以作者引入了注意力機制篩選CNN得到的特征。提出了一個視訊資料集、一種視訊資料集上的評價名額

方法:CNN特征提取 + 注意力機制

loss:MSE + 預測值與預測值的差(後者用于控制預測值的穩定性)

資料集:使用了一段二十分鐘長的視訊(視訊中隻有一個人),将其裁剪成5692個片段作為視訊資料集。

訓練:CNN在Morph上進行正常的回歸訓練。注意力子產品在視訊資料集上訓練。

評價名額:在視訊資料集上的MAE和方差

Age and Gender Recognition in the Wild with Deep Attention

方法:系統包含三個結構:attention CNN、Patch CNN、classifier。attention CNN提取原始的低分辨率圖檔的特征,并給出一個k * k的矩陣,實體意義為将原始圖檔的高分辨率版本劃分為k * k格時每一格對應的注意力分數;Patch CNN提取原始圖檔的高分辨率版本的特征并平均池化,輸出一個長度為k * k的特征向量,與attention CNN的輸出矩陣flatten後merge在一起;classifier對attention CNN和Patch CNN進行處理并得到分類結果

資料集:Morph、Adience(61.8 ± 2.,95.1 ± 0.03,Adience上年齡估計未達到SOTA)、IoG(60.0,94.5,比較的方法中的最好效果)

評價名額:MAE(Morph)、accuracy(Exact、1-off)

兩個結論:在年齡和性别估計任務上CNN比使用LBP的SVM的特征提取效果更好;最好的注意力權重方法為逐元素相乘、merge方法為正則化後concat

BridgeNet: A Continuity-Aware Probabilistic Network for Age Estimation

方法:提出Gating網絡,通過Bridge Tree這一結構獲得臨近回歸任務的權值,更好地進行年齡的回歸預測

Soft-ranking Label Encoding for Robust Facial Age Estimation

方法:提出了soft-ranking編碼方法,不同于LDL與hard-ranking,這種編碼方法能夠有效區分臨近的特征,并且可以進行任意兩個年齡的對比。同時使用patch操作(Maskout method)處理訓練資料,添加五個輔助branch,挖去特征圖上對應人臉的區域并正常訓練,以此規範化特征提取器,減輕過拟合,測試時僅使用主branch

資料集:MORPH2(MAE:1.67(RS)、2.71(SE))、AgeDB(MA:0.581)、ChaLearn15(MAE:0.232、ε-error:0.274)

評價名額:MAE、ε-error

Age estimation via attribute-region association

方法:将原始人臉圖檔和人臉上的眼、鼻、嘴特寫分别送入三個網絡

資料集:MORPH2、FGNET、CACD

評價名額:MAE、CA

Video Age Estimation with Multiple Stacked CNN Models

方法:将0-100劃分為5個年齡段,使用一個較為簡單的網絡将特征進行5分類,再使用較為複雜的5個網絡對第一個模型結果進行20分類(這裡感覺很迷,第一個網絡的最後一層是softmax layer,怎麼送到後面的CNN網絡裡的呢?)

loss:softmaxloss + center loss

資料集:在CASIA上預訓練,audience、FGNET、Morph上finetune,The ICCV2016 Apparent Age Estimation Challenge上測試

評價名額:mean normalized error 

Real-Time Age and Gender Estimation from Face Images

方法:Hierarchical multi-classifier。假設有八個類别,将資料遞歸地劃分為兩個子類,使用Adaboost進行訓練。

loss:Correct Classification Rate

Deep label refinement for age estimation

方法:通過一系列神經網絡進行年齡的回歸和年齡分布的回歸任務,每一個網絡都會學習前一個網絡的預測結果并不斷減小與gt的差異。同時作者提出了relax loss,使得每一個網絡相比之前的網絡預測結果都更加穩定、接近gt

資料集:IMDB-WIKI、ChaLearn15(MAE:3.052、ε-error:0.274)、MORPH2(MAE:1.905)、MegaAge-asian(CA3:64.45 CA5:82.95 CA7:91.98)

評價名額:MAE、ε-error、CA

繼續閱讀