融合运动状态信息的高速相关滤波跟踪算法
来源:用户上传
作者:韩锟 杨穷千
摘 要:为解决相关滤波(Discriminative Correlation Filter,DCF)算法在快速运动、遮挡、尺度变化等复杂情景下的跟踪失败问题,提出一种融合运动状态信息的高速相关滤波目标跟踪算法. 在传统DCF算法基础上做出以下改进:(1)在跟踪框架中融入卡尔曼(Kalman)滤波器,利用目标运动状态信息对预测运动轨迹进行修正,以解决目标复杂运动时易跟丢问题,提高跟踪精度;(2)训练一个独立的尺度相关滤波器进行目标尺度预测,并利用主成分分析法(Principal Component Analysis,PCA)进行特征降维处理,提高跟踪速度;(3)提出一种高置信度更新策略判断是否对位置滤波器进行模板更新,以及是否采用Kalman滤波器预测位置作为目标位置. 最后在OTB-100数据集上进行算法测试,提出算法平均精度与成功率分别达到74.8%与69.8%,平均帧率为84.37帧/s. 相较其他几种主流算法,本文算法有效提高跟踪性能,并保证了跟踪速度,满足实时性要求,在遮挡、背景模糊、运动模糊等复杂情况下能够保持良好的跟踪效果.
关键词:目标跟踪;相关滤波;卡尔曼滤波;尺度估计;高置信度更新
中图分类号:TP391 文献标志码:A
Abstract:In order to solve the problem of tracking failure caused by complex scenarios such as fast motion, occlusion and scale variation, a high-speed correlation filtering target tracking algorithm integrating motion state information is proposed. This paper makes three improvements based on the traditional Discriminative Correlation Filter: (1) The Kalman filter is added to the tracking process to modify the predicted position by using the motion state information, so as to deal with the tracking failure caused by fast motion and improve the tracking accuracy; (2) A separate filter for scale estimation is learned and the PCA method for dimension reduction of features is used to improve the tracking speed. (3) A high-confidence update strategy is proposed to determine whether the position filter is updated and whether the predicted position is transferred to Kalman filter for correction. The algorithm is tested on OTB-100 platform with several state-of-the-art tracking algorithms. Experiments show that our algorithm's average precision and success rate can reach 74.8% and 69.8%, respectively, and the average speed is 84.37 frames per second. Compared with other algorithms, the proposed algorithm can effectively improve the tracking performance, guarantee the tracking speed, and keep good tracking effect under complex conditions such as occlusion, ambiguous background and fast motion.
Key words:object tracking;correlation filter;Kalman filter;scale estimation;high-confidence update strategy
目标跟踪技术是计算机视觉领域中的重要研究课题,被广泛应用于视频监控、人机交互、机器人等领域. 近年来,目标跟踪方法研究从传统的光流法、均值漂移、粒子滤波等跟踪算法向相关滤波与深度学习的方向发展. Bolme等[1]提出利用图像灰度特征的输出平方误差最小滤波器(Mosse)将相关滤波引入跟踪领域,突破了传统跟踪方法的束缚,以极高的准确性及运行速度受到广泛关注. 但该方法在训练分类器时只能获取有限的训练样本,在此基础上,核循环结构跟踪器[2](CSK)利用循环移位实现稠密采样,显著提高训练样本数量. 为构建更准确的目标表征模型,研究人員将梯度直方图[3](HOG)、颜色名 [4](CN),颜色直方图[5](DAT)等人为特征代替灰度特征作为训练相关滤波器的显著特征,提高了算法跟踪稳健性. 为更进一步提高滤波器判别力,多特征融合类[6-7]方法、深度学习类[8-9]方法开始出现,Bhat等[10]提出的释放深度特征的能量(UPDT)算法将深浅层特征分而治之,并通过最优化融合,得到最优定位结果,此方法有效地提高了算法跟踪性能,但由于计算数据量的增大导致跟踪速度大幅度下降. 跟踪过程中在对目标进行准确定位的同时,还需保证跟踪尺度与目标尺度的一致性,自适应尺度变化核相关滤波器[11](Samf)与判别式尺度空间跟踪器[12](DSST)分别提出尺度池与尺度金字塔的思想进行目标尺度估计,提高算法跟踪成功率. 这两种尺度估计策略被广泛应用于后续跟踪算法[7-9]中. 此外在跟踪过程中出现严重遮挡、形变等干扰时,目标表征发生变化,易出现跟踪漂移现象,需及时对跟踪结果优劣进行判断并重新确定目标位置. Wang等[13]提出将平均峰值相关能量APEC(Average Peak-to-CorRelation Energy)与响应图最大峰值Fmax作为模型置信度判定指标,决定是否进行目标表征模板更新,有效抑制跟踪框漂移对跟踪精度的影响. Ma等[14]在跟踪中融入检测算法,判定跟踪失败时,对目标进行重检测,确定目标正确位置,以保证算法长时性的跟踪; 熊昌镇等[15]将重检测与上下文信息相融合提高算法稳定性.
上述基于相关滤波跟踪算法的改进都取得了较好的跟踪效果,但同时牺牲了跟踪速度. 而卡尔曼滤波器能够综合利用目标运动状态信息对目标位置进行估计,且相较于多特征融合,深度卷积特征描述计算成本低. 因此本文提出将卡尔曼滤波器引入相关滤波框架,弥补其在由遮挡、超出视野等因素造成的目标丢失情况下跟踪性能的不足,提高跟踪精度,保证跟踪速度.
基于以上分析,本文提出一种融合运动状态信息的高速目标跟踪算法,具体改进如下:(1)引入Kalman滤波算法对目标运动状态进行估计,在相关滤波跟踪失败时修正预测位置,提高算法跟踪精度;(2)针对尺度变化问题,训练两个獨立的滤波器,即位置滤波器和尺度滤波器,分别实现目标的位置与尺度预测,并采用PCA分解对特征进行降维提高跟踪速度;(3)提出一种高置信度更新策略,采用最大响应Fmax与APEC两个指标衡量外观表征模型置信度,当指标同时达到更新条件时更新位置滤波器,反之则不更新,且将卡尔曼滤波预测位置作为新一帧目标位置. 通过对OTB-100数据集实验测试,证明本文算法相较于其他主流算法跟踪精度高,且具有显著实时性优势.
1 相关滤波基本原理
传统DCF算法原理为通过给定的一组目标表征样本,学习一个最优的相关滤波器进行相似度度量,来寻找新一帧中的目标位置. DCF算法利用循环矩阵特性进行密集采样,在提高算法精度的同时极大的降低了计算复杂度,同时通过在傅里叶域进行操作计算,使得训练与检测过程更加高效. DCF跟踪算法主要包括分类器训练、目标位置快速预测、参数更新3部分.
1.1 分类器训练
相关滤波算法采用岭回归分类器进行位置预测,利用循环移位获取训练样本,提取HOG特征,通过构建最小化代价函数训练得到最优滤波器h.
1.2 快速检测
为了更加精确地检测出目标位置,DCF以t-1帧目标位置为中心采集候选区域所有测试样本,通过分类器测试计算其与目标区域相似度,得到响应输出为:
1.3 参数更新
为保证跟踪滤波器的稳健性与准确性,相关滤波器需在每一帧以固定比例对模型参数进行更新,以适应跟踪过程中目标可能具有的平面旋转、形变等变化.
2 算 法
本文针对DCF算法单一特征描述鲁棒性不强,无法应对目标尺度大幅度变化,在发生快速运动、运动模糊、遮挡等情境下跟踪失败问题,提出一种融合运动状态信息的高速相关滤波跟踪方法. 算法流程如图1所示,主要包括3部分:1)卡尔曼修正;2)快速尺度估计;3)高置信度模板更新. 为保证算法跟踪速度,本文采用PCA特征降维后的HOG特征对目标进行描述,首先利用位置滤波器与尺度滤波器在候选区域提取低维度特征对目标位置与尺度进行估计,并将预测位置作为观测值构建卡尔曼滤波器;再通过高置信度指标对位置预测结果可靠性进行判断,若满足置信度要求,则更新位置滤波器模板,反之不进行模板更新,且将卡尔曼滤波器估计结果作为目标新位置,提高定位精度.
2.1 卡尔曼修正
相关滤波类算法中没有利用目标的运动状态信息进行位置预测. 而Kalman滤波是一种对随机动态系统状态进行最优估计的方法,联合目标速度与加速度等信息对下一帧位置进行预测,当目标发生快速运动、运动模糊、遮挡等情况时,能更准确地预测出目标位置[17],该方法计算成本低,能实现目标快速跟踪. 本文算法中将相关滤波的预测位置作为观测值构建卡尔曼滤波器,以修正目标运动轨迹,在不影响跟踪速度的前提下提高跟踪精度.
卡尔曼滤波器的预测思想为通过构建目标动力学模型,联合上一帧估计值对目标当前帧状态预测,并将当前帧观测值作为反馈对预测状态进行修正,得到最优估计. 在第一帧初始化Kalman滤波器,获取目标中心点真实坐标与坐标轴上的速度分量构建初始状态向量,Kalman滤波器两个状态方程为:
2.2 特征降维与尺度估计
2.2.1 特征降维
在DCF算法中,提取HOG特征(33维)对目标进行描述. 为提高算法跟踪速度,本文提出对特征进行降维处理. 降维问题可表述为对当前帧d维表征模型ut找到一个合适的降维映射矩阵Pt([d][~] × d),进而得到新的[d][~]维的特征描述向量[u][~]t . 通过对当前模型重建误差最小化构造[d][~] × d映射矩阵Pt .
2.2.2 尺度估计
在DCF算法中,目标跟踪框的大小是恒定不变的,运动过程中,目标尺度变大,固定尺寸的目标框只能获得目标局部特征,而目标尺度变小时,跟踪框内背景信息比例增大,将对目标表征信息产生干扰. 本文借鉴DSST[12]算法,构建一个一维尺度滤波器,单独对目标尺度进行预测,自适应调整目标框的大小. 尺度滤波器构建训练样本ft,scale的思路为:以位置滤波器的预测位置为中心,通过放缩提取不同大小的多尺度图像块In,构建含有S个尺度的金字塔,如图4所示,n∈-,…,,对每一层图像块In提取[d][~]s维的HOG特征. 尺度等级为n的训练样本ft,scale是In的[d][~]s维特征描述.
本文算法中,位置滤波器特征维度[d][~]h = 18,尺度滤波器特征维度[d][~]s = 18,尺度等级S = 17. 由图5可知,本文算法能够根据目标尺度变化自适应调整目标框尺度大小,比KCF算法跟踪性能有了较大提升.
2.3 自适应更新
相关滤波跟踪中需要对模型参数进行更新,使滤波器表征模型能够持续保证对目标外观的良好刻画. 而传统相关滤波在进行模型更新时并不考虑跟踪结果,直接在每一帧采用固定比例进行参数更新,这种机制在目标遭遇严重遮挡、或目标丢失等情况时,会将背景干扰信息引入模型,造成滤波器的污染,导致跟踪漂移甚至跟踪失败. 如图6(b)所示,目标被部分遮挡时,输出响应图出现多峰,容易造成误判,导致跟踪失败.
因此必须制定合适的指标对目标快速检测结果优劣进行判断,自行分析目标是否遭遇发生遮挡、形变等复杂挑战,以决定模型是否进行更新. 本文提出采用Fmax、APEC两个指标对跟踪结果置信度进行判断,Fmax指位置滤波器的最大响应值,APEC值反映响应图整体波动情况. 图像中目标越清晰,输出响应图峰值越尖锐,APEC越大;反之目标被遮挡或消失时,响应图噪声变大,APEC骤减[13],其计算公式如下:
式中:Fmax、Fmin、Fres(m,n)分別指大小为M×N的响应图中的最大响应值、最小响应值,以及每一像素点所对应的响应值.
在当前帧,若Fmax与APEC均以一定的比例超过其历史帧均值时,可认为算法此时置信度高,能够达到较好的跟踪效果,进行位置滤波器模板更新;若不满足要求,则认为算法在该帧跟踪置信度低,可能出现跟踪失败情况,则不进行模型更新并利用卡尔曼滤波对运动轨迹进行修正[20].
通过实验设计与分析,文中β1、β2分别设为0.7与0.4.
图7为在不同更新策略下的算法跟踪结果与输出响应图. 如图7所示,在第256帧时,目标被完全遮挡,输出响应图出现多峰状态,Fmax、APEC相比准确定位时均大幅度降低,在本文更新策略(Proposed)中,滤波器将选择不更新模型,防止滤波器被错误噪声信息污染. 在275帧,目标重新出现,本文算法找到正确峰值,能够恢复对目标的准确定位,而采用每帧更新机制(Proposed-NU)时,在275帧中峰值位置并不是目标正确位置,即出现伪峰,定位失败.
3 实验及结果分析
为了评估本文改进算法的有效性,将算法对OTB-100(Object tracking benchmark)[21]数据集中100个视频序列进行跟踪性能评估. 相关参数设置为:特征提取子窗口大小系数padding=2,归一化参数λ = 0.01;学习速率η = 0.01;候选尺度个数为S = 17;两滤波器特征维度[d][~]h = 18,[d][~]s = 17;模型自适应更新比例系数β1 = 0.7,β2 = 0.4;实验环境为Intel Corei5 -6400 CPU,主频2.7 GHz,内存8 GB计算机,matlab2014a软件平台.
在目标跟踪过程中有许多因素会对跟踪算法造成影响,为了对算法进行客观评价,将挑战性因素分为11种:光照变化(Illumation Variation,IV)、平面外旋转(Out-of-Plane Rotation,OPR)、尺度变化(Scale Variation,SV)、运动模糊(Motion Blur,MB)、遮挡(Occlusion,OCC)、形变(Deformation,DEF)、快速运动(Fast Motion,FM)、平面内旋转(In-of-Plane Rotation,IPR)、超出视野(Out-of-View,OV)、背景模糊(Background Clutters,BC)、低分辨率(Low Resolution,LR).
本文共设计了两组实验:(1)对OTB-100数据库中所有视频序列进行定量分析,其中包括整体跟踪性能、跟踪速度测试以及应对不同挑战因素时算法跟踪性能测试,同时与KCF(HOG)[3]、DSST(HOG+尺度)[12]、Samf(HOG+CN+尺度)[11]、fDSST(HOG+尺度)[19]、CN(CN)[4]、CSK(灰度特征)[2]6种常用的优秀跟踪算法进行比较. (2)数据集中选取10组目标出现严重遮挡、快速运动、光照变化等复杂情景视频定性分析算法跟踪性能.
3.1 定量分析
定量测试的评估标准为距离精度(DP)与重叠精度(OP),阈值分别设置为20像素与50%. 其中距离精度是指目标预测中心位置与标定中心位置像素距离小于某一设定阈值的帧数与总帧数的百分比;重叠精度是指预测目标框与标定目标框之间的重叠面积与总面积的比值超过某一设定重叠阈值的视频帧数与总帧数的百分比[22].
3.1.1 整体跟踪性能测试
实验对100个包含所有挑战因素的视频进行整体性能测试,分析算法跟踪性能与跟踪速度. 图8为7种算法跟踪精度图与成功率图. 表1给出阈值为20像素与50%时距离精度与重叠精度及平均跟踪速度.
由图8、表1可知,本文算法跟踪距离精度为74.8%,成功率为69.8%,均优于其他6种算法,相比原始KCF分别提高5.4%和15.1%;本文算法平均跟踪速度为84.37 fps,相较于跟踪性能较好的DSST和Samf算法具有显著的实时性优势,说明本文特征降维操作能够有效降低计算量. 本文算法仅采用单一HOG特征构建外观模型,利用Kalman滤波进行轨迹修正,相较于采用双重特征融合的Samf算法成功率提高3.8%,跟踪性能更好,且计算速度快,能够满足实时性要求. 3.1.2 不同属性下跟踪性能测试
为进一步评估算法在不同场景下的跟踪性能,本文将上述7种算法对11种不同属性下视频序列分别进行测试. 表2、表3给出阈值为20像素与50%时的距离精度与重叠精度时的对比结果. 由表2、表3可知,本文算法在不同挑战下大都能达到最优或次优的跟踪效果. 尤其在超出视野(OV)、运动模糊(MB)、低分辨率(LR)等状况下表现优异,说明Kalman滤波能够很好地利用目标运动状态信息预测目标位置,弥补相关滤波在目标丢失时跟踪性能的不足,在遮挡属性下(OCC),本文算法跟踪效果能够媲美采用双重特征的Samf算法,说明本文高置信度更新以及位置修正策略能够有效提高跟踪精度;在尺度变化属性下(SV),本文算法精度与成功率均高于具有尺度估计性能的Samf、fDSST、DSST,说明本文降维特征能够满足位置估计与尺度估计需求. 综上所述,本文算法在各种复杂场景下均能保证良好的跟踪效果且鲁棒性强. 但在背景模糊(BC)与光照变化(IV)情况下,本文算法由于只采用单一HOG特征,判别力弱,且在目标发生旋转时,将无法充分利用其运动状态信息提高跟踪准确度,跟踪性能有待提高.
3.2 定性分析
为更直观地对算法跟踪性能进行分析,本文选取10组具有复杂背景的典型视频进行定性分析.图9为5种算法的跟踪对比结果,CSK、CN与其他算法性能差距较大,此处不比较. 如图9 (a) (b)所示,目标均具有尺度变化与形变特性,当目标尺度变大或变小时,不具有尺度估计性能的算法将逐渐丢失目标,而本文算法能夠稳定调整目标框大小,保持准确跟踪;在Football、Freeman1视频中目标具有平面内、外旋转特性,图9(c)中318帧与 9(d)中187帧,目标发生旋转,大部分算法目标框偏移,而本文算法由于分析目标运动状态信息而能够保持精确定位; 在9(e)(f)中目标经历了完全遮挡、重新出现、背景信息干扰的过程,由图9可知本文算法采用高置信度更新策略,外观表征模型不引入背景信息,能够在遮挡或背景干扰情况后找回跟踪目标,保持持续性的准确跟踪,而其他算法均丢失目标且无法重新定位. 图9 (g)( h)中目标在短时内出现快速运动、旋转、形变、运动模糊等挑战,其他算法目标框发生震荡无法确定目标位置,而本文算法使用了目标运动信息,能够稳定预测目标位置. 图9(i)Bird1中174帧,目标经历了长时的消失状态,在200帧目标重新出现时,只有本文算法能够重新找回目标继续跟踪. 图9(j)Girl2属于长时跟踪,目标经历了严重遮挡、背景模糊、尺度变化、旋转等复杂挑战,由图9可知,本文算法能够保持对目标的尺度与位置准确估计.
4 结 论
针对传统相关滤波算法在遮挡、快速运动、尺度变化等复杂情景下无法准确定位的问题,本文提出一种融合运动状态信息的高速相关滤波目标跟踪算法,构建Kalman滤波器在相关滤波跟踪失败时,对其预测运动轨迹进行修正,并单独训练一个尺度滤波器对目标尺度进行估计,采用Fmax和APEC对跟踪结果可靠性进行判断,判定置信度满足要求时才对位置模板进行更新,反之则不更新,并利用卡尔曼滤波器对预测位置进行修正.
为保证跟踪速度,本文只采用单一HOG特征构建目标外观表征模型并对特征进行降维处理,采用降维特征训练位置与尺度滤波器. 相对多特征、深度特征,该算法判别力不强,但通过实验证明,其仍能有效提高跟踪性能,在尺度变化、超出视野、遮挡、运动模糊等复杂情景下能够保持稳健跟踪,具有较好的准确性与鲁棒性. 本文算法在OTB-100数据集平均跟踪速度为84.37 fps,能够满足工程应用实时性要求.
参考文献
[1] BOLME D S,BEVERIDGE J R,DRAPER B A,et al. Visual object tracking using adaptive correlation filters[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. San Francisco:IEEE Computer Society,2010:2544—2550.
[2] HENRIQUES J F,RUI C,MARTINS P,et al. Exploiting the circulant structure of tracking-by-detection with kernels[C]// Processings of European Conference on Computer Vision. Florence:Springer-Verlag,2012:702—715.
[3] HENRIQUES J F,CASEIRO R,MARTINS P,et al. High-speed tracking with kernelized correlation filters [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,37(3):583—596.
[4] DANELLJAN M,KHAN F S,FELSBERG M. Adaptive color attributes for real-time visual tracking [C]//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus:IEEE Computer Society,2014:1090—1097. [5] BERTINETTO L,VALMADRE J,GOLODETZ S,et al. Staple:complementary learners for real-time tracking [C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas:IEEE Computer Society,2016:1401—1409.
[6] 李双双,赵高鹏,王建宇. 基于特征融合和尺度自適应的干扰感知目标跟踪[J]. 光学学报,2017,37(5):0515005.LI S S,ZHAO G P,WANG J Y. Distractor-aware object tracking based on multi-feature fusion and scale-adaption [J]. Acta Optica Sinica,2017,37(5):0515005. (In Chinese)
[7] 李聪,鹿存跃,赵珣,等. 特征融合的尺度自适应相关滤波跟踪算法[J]. 光学学报,2018,38(5):0515001.LI C,LU C Y,ZHAO X,et al. Scale adaptive correlation filter tracking algorithm based on feature fusion [J].Acta Optia Sinica,2018,38(5):0515001. (In Chinese)
[8] DANELLJAN M,BHAT G,KHAN F S,et al. ECO:efficient convolution operators for tracking [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, Hawaii:IEEE Computer Society,2017:6931—6939.
[9] MA C,HUANG J B,YANG X,et al. Robust visual tracking via hierarchical convolutional features [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2019,41(11):2709—2723.
[10] BHAT G,JOHNANDER J,MARTIN D,et al. Unveiling the power of deep tracking [C]//European Conference on Computer Vision. Munich:Springer,Cham,2018:493—509.
[11] LI Y,ZHU J K. A scale adaptive kernel correlation filter tracker with feature integration[C]//European Conference on Computer Vision. Zurich:Springer,Cham,2014:254—265.
[12] DANWLLJAN M,HAGER G,KHAN F S. Accurate scale estimation for robust visual tracking [C]//British Machine Vision Conference.Nottingham:Springer,Cham,2014:65.1—65.11.
[13] WANG M,LIU Y,HUANG Z. Large margin object tracking with circulant feature maps [C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,Hawaii:IEEE Computer Society,2017:4800—4808.
[14] MA C,YANG X,ZHANG C,et al. Long-term correlation tracking [C]// Computer Vision and Pattern Recognition. Boston:IEEE,2015:5388—5396.
[15] 熊昌镇,卢颜,闫佳庆. 融合上下文和重定位的加权相关滤波跟踪算法[J]. 光学学报,2019,39(4):0415004.XIONG C Z,LU Y,YAN J Q. Weighted correlation filter tracking based on context and relocation [J]. Acta Optica Sinica,2019,39(4):0415004. (In Chinese).
[16] 熊昌镇,赵璐璐,郭芬红. 自适应特征融合的核相关滤波跟踪算法[J]. 计算机辅助设计与图形学学报,2017,29(6):1068-1074.XIONG C Z,ZHAO L L,GUO F H. Kernelized correlation filters tracking based on adaptive feature fusion [J]. Journal of Computer-Aided Design & Computer Graphics,2017,29(6):1068—1074. (In Chinese) [17] 曲云腾,李平康,杜秀霞. 基于Kalman预测的人体运动目标跟踪[J]. 计算机系统应用,2011,20(1):137—140.QU Y T,LI P K,DU X X. Moving human target tracking based on Kalman prediction [J]. Computer Systems & Applications,2011,20(1):137—140. (In Chinese)
[18] 田亞蕾,马杰,杨楠. 结合核相关滤波和Kalman预测的运动目标跟踪[J]. 小型微型计算机系统,2018,10(10):2330—2334.TIAN Y L,MA J,YANG N. Moving target tracking based on kernelized correlation filter and Kalman predicting [J]. Journal of Chinese Computer Systems,2018,10(10):2330—2334. (In Chinese)
[19] DANWLLJAN M,HAGER G,KHAN F S,et al. Discriminative scale space tracking [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,39(8):1561—1575.
[20] 林彬,李映.基于高置信度更新策略的高速相关滤波跟踪算法[J]. 光学学报,2019,39(4):0415003.LIN B,LI Y,High-speed correlation tracking based on high-confidence updating strategy [J]. Acta Optica Sinica,2019,39(4):0415003. (In Chinese)
[21] WU Y,LIM J,YANG M. Object tracking benchmark [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(8):1561—1575.
[22] 沈秋,严小乐,刘霖枫,等. 基于自适应特征选择的多尺度相关滤波跟踪[J]. 光学学报,2017,37(5):0515001.SHEN Q,YAN X L,LIU L F,et al. Multi-scale correlation filtering tracker based on adaptive feature selection [J]. Acta Optica Sinica,2017,37(5):0515001.(In Chinese)
转载注明来源:https://www.xzbu.com/4/view-15189875.htm