天天看點

【CVPR 2021】高效計算的知識蒸餾:Computation-Efficient Knowledge Distillation via Uncertainty-Aware Mixup論文位址:代碼位址:主要問題:

【CVPR 2021】高效計算的知識蒸餾:Computation-Efficient Knowledge Distillation via Uncertainty-Aware Mixup

  • 論文位址:
  • 代碼位址:
  • 主要問題:
  • 主要思路:
  • 具體實作:
    • KD 的計算成本:
    • 不确定性感覺混合政策:
  • 實驗結果:
  • 聯系作者:
  • 我的公衆号:

論文位址:

https://arxiv.org/abs/2012.09413

代碼位址:

https://github.com/xuguodong03/UNIXKD

主要問題:

與之前關注學生模型準确性的工作不同,在這裡作者研究了一個很少探索但重要的問題,即知識蒸餾的效率,并且發現傳統知識蒸餾的備援性在于對容易的樣本的過度學習

繼續閱讀