天天看点

《Learning Spatially Regularized Correlation Filters for Visual Tracking》---文献理解翻译

这是cfnet中的8号引用文献,和13一样都是对边界问题进行阐述的,稍微阅读以一下,有助于理解.

Abstract

准确的视觉跟踪是计算机视觉领域最具挑战性的问题之一。由于训练数据的固有不足一种鲁棒的目标外观模型构建方法至关重要。近年来,有选择地学习相关滤波器(DCF)被成功地应用于跟踪这一问题。这些方法利用训练样本的周期性假设来有效地学习目标邻域内所有patch上的分类器。然而,周期性假设也引入了不必要的边界效应,严重降低了跟踪模型的质量。

我们提出了提出了一种基于空间正则化的判别相关滤波器(SRDCF)。在学习中引入空间正则化分量,根据相关滤波系数的空间位置对其进行惩罚。我们的SRDCF公式允许在更大的负训练样本集中学习相关滤波器,而不会破坏正样本。我们进一步提出了一个优化策略,基于迭代高斯-赛德尔方法,有效地在线学习我们的SRDCF。在四个基准数据集上进行了实验:OTB-2013、ALOV++、OTB-2015和VOT2014。我们的方法在所有四个数据集上实现了最先进的结果。在OTB-2013和OTB-2015上,与现有的最佳跟踪器相比,我们获得的平均重叠精度绝对增益分别为8.0%和8.2%。

1. Introduction

《Learning Spatially Regularized Correlation Filters for Visual Tracking》---文献理解翻译

图1所示。 在标准DCF方法中使用的示例图像(a)和基本的周期假设(b)。周期性假设(b)导致一组有限的负向训练样本,无法捕获真实的图像内容(a),从而导致学习到一个不准确的跟踪模型。

视觉跟踪是一个经典的计算机视觉问题,具有广泛的应用前景。在一般的跟踪任务是估计一个目标的轨迹在一个图像序列,只给它的初始位置。这个问题特别具有挑战性。该跟踪器必须从一组非常有限的训练样本中概括出目标的外观,以实现对遮挡、快速运动和变形的鲁棒性。在这里,我们研究了在这些条件下学习鲁棒外观模型的关键问题。

近年来,基于判别相关滤波器(Discriminative Correlation Filter, DCF)的方法[5,8,10,19,20,24]已经成功地应用于跟踪问题[23]。这些方法从一组训练样本中学习相关滤波器。训练相关滤波器对训练样本进行循环滑动窗口操作。这相当于假设这些样本的一个周期性扩展(参见图1)。

该方法利用快速傅里叶变换(FFT)实现了有效的训练和检测。如前所述,标准DCF的计算效率来源于训练和检测的周期性假设。然而,这种潜在的假设产生了不必要的边界效应。这将导致图像内容的不准确表示,因为训练补丁包含周期性的重复。诱导边界效应主要限制了DCF标准公式的两个重要方面. 首先,不准确的负训练补丁降低了学习模型的识别能力。其次,检测分值只在区域中心附近准确,其余分值受检测样本的周期性重复影响较大。这导致在检测步骤中目标搜索区域非常受限。

上述标准DCF配方的局限性在几个方面妨碍了跟踪性能:

(a)基于DCF的跟踪器在搜索区域受限的情况下难以实现快速目标移动。

(b)缺乏负性训练补丁会导致学习模型过拟合,严重影响目标变形等情况下的表现。

©所述的训练和检测方面的限制也降低了跟踪器在遮挡后重新检测目标的可能性。

(d)对用于训练相关滤波器或使用更大的周期性的图像区域进行幼稚的扩展(见图1)。这种扩展导致在正的训练样本中包含大量的背景信息。

这些损坏的训练样本严重降低了模型的识别能力,导致跟踪结果较差。在这项工作中,我们通过重新访问标准DCF公式来解决这些固有的问题。

1.1 Contributions

在这篇论文中,我们提出了空间正则化判别相关滤波器(SRDCF)来进行跟踪。我们在DCF公式中引入了一个空间正则化分量,以解决由周期假设引起的问题。提出的正则化权值补偿了学习过程中的相关滤波系数。空间权值基于滤波器空间范围的先验信息。

由于空间正则化,相关滤波器可以在较大的图像区域学习。这使得一组更大的负面补丁被包含在训练中,从而导致一个更有鉴别力的模型。由于跟踪问题的在线性质,一个计算效率的学习方案是至关重要的。因此,我们针对所提出的SRDCF提出了一个合适的优化策略。利用空间正则化函数在傅里叶域中的稀疏性,实现了在线检测。我们建议使用迭代高斯赛德尔法来求解得到的法向方程。此外,我们还介绍了一种利用亚网格精度来最大化检测分数的策略。

我们对四个基准数据集进行了综合实验:OTB-201333、ALOV++30、VOT201423和OTB-201534。与现有的最佳跟踪器相比,我们的方法在OTB-2013和OTB-2015上的平均重叠精度分别获得了8.0%和8.2%的绝对增益。我们的方法在alov++和VOT2014上也取得了最好的整体效果。此外,我们的跟踪器赢得了OpenCV状态的最先进的视觉挑战在跟踪25。

继续阅读