2019年10月Electronics Optics & ControlVol. 26 No. 10Oct. 2019
引用格式:李晶,黄山.基于 YOLOv3 目标跟踪方法[J].电光与控制,2019,26(10) :87-93. U J, HUANG S. Y0L0v3 based object tracking method [J]. Electronics Optics & Control, 2019, 26( 10) :87-93.基于YOLOv3目标跟踪方法李晶\",黄山b(四川大学,a.电气信息学院;b.计算机学院,成都610065)摘 要:提出了一种基于深度学习检测算法YOLOv3的目标跟踪算法。该算法利用深度学习模型在目标特征提取上 的优势,采用基于回归的YOLOv3检测模型提取候选目标,同时结合目标颜色直方特征和局部二值模式直方特征进行
目标筛选,实现对目标的跟踪。为了提高算法的性能,还提出了一种K邻域搜索方法,可以针对选定目标进行邻域检 测。实验结果表明,提出的目标跟踪算法跟踪效果很好,综合表现比4种对比算法提高了 80%左右,同时在目标物体 光照变化、姿态变化、尺寸变化、旋转变化等复杂情况下有很好的鲁棒性。关键词:深度学习检测算法;目标跟踪;K邻域搜索;鲁棒性中图分类号:0213.2 文献标志码:A dot: 10. 3969/j. issn. 1671 -637X. 2019.10.018YOLOv3 Based Object Tracking MethodLI Jing\ HUANG Shanb(Sichuan University, a. Electrical Information College; b. Computer College, Chengdu 610065, China)Abstract: An object tracking algorithm is proposed based on the deep learning detection algorithm of
Y0L0v3 (Y0L0v3 : An Incremental Improvement), which utilizes the advantages of deep learning model in
target feature extraction, and extracts candidate targets by using regression-based Y0L0v3 detection model・
The target color histogram feature and Local Binary Pattern ( LBP) feature are also used for target screening, thus to implement object tracking・ At the same time, a method called K-neighbor searching is presented to
improve algor让hm performance, which performs neighborhood detection for the selected targets. Experimental
results show that the proposed algorithm has a good tracking performance, with an overall performance improved by about 80% in comparison with the four contrast algorithms, and has good robustness in the complex
situations of illumination changing, posture changing, size changing and rotation of target object.Key words: Y0L0v3 ; object tracking; ^C-neighbor searching; robustness优势在于速度很快,如基于相关滤波的KCF算法,得益 于快速傅里叶变换(FFT)和矩阵计算,其目标跟踪速度
0引言近年来,目标跟踪已经成为计算机视觉研究领域 重要的研究热点之一。从经典的Meanshift算法、Kal
可达172帧厶⑵。判别类目标跟踪算法的基本思路是 首先进行选定区域的特征提取,然后采用机器学习算 法训练一个分类器将目标与背景区分开来;这类跟踪
man Filter等跟踪算法到以KCF为代表的相关滤波跟 踪算法,再到最近几年出现的深度学习相关的跟踪算
算法的优势在于适应性强,即使在复杂环境下也能保持 一定精度。如多实例学习(Multiple Instance Learning, MIL)算法⑶,其在目标部分遮挡的情况下也能正常
法,目标跟踪研究已取得了很大的进步与发展。一般
而言,目标跟踪算法可以分为生成类目标跟踪算法和
判别类目标跟踪算法两类⑴。生成类目标跟踪算法的 基本思路是对当前帧的目标区域建模,在后续的帧中 找出最可能的目标区域作为跟踪目标;这类跟踪算法的工作。基于深度学习的目标跟踪算法的发展并非十分顺
利,这是由于深度学习模型的构建需要大量标注训练 数据,才能有效地提高模型的特征表达能力⑷。目标
收稿日期:2018-11-26 修回日期:2018-12-09跟踪往往只能提供第一帧的选定框作为训练数据,这
作者简介:李 晶(1993 ―),男,安徽安庆人,硕士生,研究方向为计
样的训练数据显然是不够的。针对这个问题,目前的解决方案中大部分算法采
算机视觉。88电光与控制第26卷用离线训练结合在线更新的模式,但这需要大量的样
本进行模型调整,导致其跟踪速度不理想。本文提供 了另外一种解决思路:直接使用ImageNet这样的大规 模分类数据库上训练出的CNN网络获取目标特征表
示,再利用观测模型根据目标特征进行分类并获得跟 踪结果。根据这种思路,本文提出了一种基于深度学习检 测算法Y0L0v3的目标跟踪算法,称之为TOD(Tracking Object based on Detector of Y0L0v3) o 借助于深度学习
检测算法进行目标特征提取,得到同一类别物体的候 选框,结合目标全局性的颜色直方图特征和局部性的 LBP特征,在目标邻域进行搜索,进行目标筛选,达到
跟踪的目的。该方法利用了深度学习检测算法在目标 特征表达上的优势,将其迁移到目标跟踪上,具有很好
的目标跟踪性能°1基本概念深度学习模型在物体检测领域表现十分优秀,检 测性能明显优于传统物体检测算法。基于深度学习的
目标检测算法一般可以分为两类:基于区域的物体检
测和基于回归的物体检测⑸。前者在检测精度上有更
好的表现,但检测速度很慢,基本达不到实时性要求;
而后者在检测速度上优势十分明显,且检测精度只比 前者稍低一点。考虑到目标跟踪算法对速度要求很 高,本文选用基于回归的物体检测算法Y0L0v3实现
对物体的检测,从而得到跟踪目标°1.1 YOLOv3 介绍YOLOv3算法是物体检测算法YOLO系列第3个版 本,可以检测出person,bicycle和car等80个类别物体。
借助于GPl7TitanX,YOLOv3在COCO数据上51 ms内实
现了 57.9的AP50沏,其检测性能表现十分优异。Y0L0v3采用目标回归的思想,减少了网络的计
算量,提升了运行速度;借助于特征金字塔网络(Feature PjTamid Network,FPN)的思想,在3种不同的尺度
上进行特征提取,使算法在小目标的检测上有了更好
的表现;采用独立的逻辑回归器取代Sofimax,能够实 现使用多标签分类,使检测物体的分类更加准确。
YOLOv3采用的是全卷积神经网络来提取图像特征,
该网络由一系列表现良好的3 x3和1 x 1的卷积层构
成,共有53个,称之为Darknet-53[7,O同时也增加了
Res层,将深度神经网络的逐层训练改为逐阶段训练, 这样可以解决网络的梯度弥散或者梯度爆炸的问题,
达到更好的训练效果。Darknet-53网络结构如图1
所示。TypeConvolutional Filters Size OutputConvolutional 32 3x3 256x256IX
Convolutional 64 3x3/2 128X128Convolutional 3264 1X1ConvolutionalResidual 3x32X
Convolutional 128X128Convolutional 12864 3x3/2 64x64ConvolutionalResidual 1283x31X164x648X
Convolutional Convolutional 256 3x3/232x32Residual 256128 lxl3x3Convolutional8X
Convolutional 512■3x3/232X32 Convolutional 16x16Residual 2565121X13X3Convolutional 10243x3/216x164XConvolutionalConvolutional 8x8Residual 1024512 1X13x3AvgpoolConnected Global8x8Softmax1000图1 Darknet-53网络结构Fig. 1 Structure of Darknet-53 network1.2 K邻域搜索在目标跟踪领域通常有一个共识,即跟踪目标在
相邻两帧序列图上的相对位移通常不会非常大。在此 基础之上,本文提出了一种K邻域搜索方法,以此提高
YOLOv3检测算法在选择区域的物体检测成功率。K 邻域搜索以前一帧检测到的目标矩形区域(序列图第
一帧为手动选择矩阵区域)为基础矩阵,后一帧搜索矩
阵区域在该基础矩形周边,同时搜索矩阵区域中心点 与该基础矩形区域中心点坐标位置重合,且满足式中:兀品和分别表示矩形搜索区域的宽、高; 叫閒和仏问分别表示前一帧目标矩形区域的宽、高。K邻域搜索方法如图2所示。图2 K邻域搜索方法示意图Fig. 2 Schematic of ^-neighbor searching method图2中,蓝色椭圆形为目标物体,红色框为前一帧 所得目标框,绿色框为当前帧K邻域搜索矩阵框,其中
K = 3。采用K邻域搜索方法可以提高YOLOv3目标物体 检测的成功率。在实际跟踪过程中,目标K邻域搜索
可在一定程度上增加目标周围物体的检出率,提高目标 跟踪效果C第10期李晶等:基于YOLOV3目标跟踪方法89图3中显示了同一张图片中不同K值下YOLOv3 的检测结果,其中,白色矩形框均为目标矩形区域Ca K=2 b K=3 c K=5图3使用K邻域搜索方法的YOLOv3检测结果Fig. 3 Detection results of Y0L0v3 with K-neighbor
searching method表1所示为图3中不同K值下目标矩形周边区域 的物体检出数量°以K = 2为基准,K<2认为是目标 周边区域,K>2认为是目标周边以外区域。可以看 出,使用了不同K值的K邻域搜索方法的Y0L0v3在 图片相同大小的区域检出物体的数量是不同的,K = 3
时在物体周边检出效果较好。表1图3中目标矩形周边物体检出数Table 1 Numbers of objects detected around the
destination rectangle in Fig. 3在实际跟踪过程中,Y0L0v3提取的候选目标框 可能分布在图中各个位置,K邻域搜索方法还能以K
为阈值,筛选掉那些在K邻域搜索框以外的候选目标
框,如图4所示。图4跟踪过程中是否使用K邻域搜索的检测结果对比
Fig. 4 Contrast of detection results with/without K-neighbor
searching method during object tracking2目标跟踪模型2.1特征提取在目标跟踪时,多个目标候选框被检测出来之后, 需要做一个筛选,以便在视频序列图像中找到与模板最 相似的候选框作为跟踪目标閑。本文采用HSV颜色直
方图特征和LBP直方图特征共同进行候选目标的筛选。图像的颜色特征分为RGB和HSV空间特征,均
是全局性的特征,其描述子能够较好地表示目标形状 的整体信息,对形变较大的目标来说鲁棒性很好⑼。
RGB颜色空间的均匀性非常差,并且两种颜色之间的 直觉差异色差不能表示为颜色空间中两点的距离,因
此本文选择HSV空间特征。LBP特征是局部特征,对
物体的局部纹理特征具有很好的特征描述,能够对物
体的空间边缘及纹理有较好的检测效果,同时LBP特
征的运算量小,有利于检测速度的提升「何LBP特征提取基本公式为p(兀,Q = 22^(ip - i。)(2)式中:(xe,ye)是中心像素k是灰度值;i”是相邻像素 的灰度值;s是一个符号函数,即S(x)=1 x^O
.0 x <0(3)此外,采用LBP直方图特征而不是LBP特征是由 于LBP特征与其位置信息紧密相关,直接对图片提取 LBP特征进行判别分析时,提取的特征往往由于位置
的不同而产生很大误差。为了避免这种影响,本文采 用的是LBP直方图特征。图5中,假设序列帧图Crossing中红衣女士是候 选目标,截取出来命名为Part of Crossingo图5b、图
5d、图5f分别是序列帧图Crossing‘Crossing的HSV直 方图特征、Cmssing的LBP直方图特征;而图5a、图5c、
图5e分别是Part of Crossing及其对应的HSV直方图 特征和LBP直方图特征。a Part of Crossing图5 HSV直方图和LBP直方图特征提取Fig. 5 Feature extraction of HSV and LBP histograms90电光与控制第26卷2.2目标选择目标筛选过程中,首先通过检测类别过滤掉一部
分非目标类别候选框,然后对剩下的目标候选框依次 计算与跟踪目标之间的HSV直方特征相似度和LBP 直方特征相似度,通过合适的权重系数得到相似度得 分,本文HSV直方特征和LBP直方特征对应的权重系 数分别为1和2。之后选择相似度得分最大的目标候
选框作为跟踪目标。HSV和LBP两个直方特征相似 度阈值分别为6和3,若两个相似度没有达到设定的
相似度阈值,则判定当前帧上没有要跟踪的目标,选择
下一帧继续目标筛选。HSV直方图相似度和LBP直方图相似度按照巴 氏相关系数公式计算,即= jl--/ 1
工、已⑴禺(齐(4)s(厶上2)=V卜- ^L丄tL—2M2 工'
\"|(0厶2(斤(5)乙(兀)=-In
(6)式中网 耳 分别表示候选目标和模板目标的HSV特征
直方图向量;N表示直方图bin数目;瓦=寺工比⑺,
码(刀表示比中序号为丿的bin的HSV颜色向量统计 值;厶上2分别表示候选目标和模板目标的LBP特征 直方图向量皿表示直方图bin数国=寺工乙(刀,
乙(刀表示Z中序号为•/的bin的LBP特征向量统 计值。每个候选目标在计算出其与模板目标的两个直方
图巴氏相似度之后,经过式(6)进行值放大,然后计算 该候选目标与模板目标直方图相似度得分,即S( = ^7( s( kt ,A.) ) + W2Y(9( ,1,) )
(7)式中:表示第i个目标候选框的得分;叭,理表示权
重系数,取叭=1,旳=2。最后根据每个候选目标的 直方图相似度得分数值大小进行筛选,选择得分最高 的候选目标为跟踪对象。2.3模板更新在目标跟踪过程中,待跟踪目标可能会出现姿态、 尺寸、光照等变化,造成跟踪不稳定或者目标丢失的情
况,需要及时更新模板目标「山。传统的目标更新策略
大多是计算当前帧目标与模板目标的相关系数相似 度,当其值高于所设阈值时,将模板与最佳位置的图像
通过加权得到新的模板切。本文目标模板更新采用 帧差阈值更新的策略。考虑当前帧匹配目标与目标模板的两个直方图相 似度特征得分,在当前帧匹配目标与模板目标的HSV
直方特征及LBP直方特征相似度得分均满足阈值条
件,同时满足帧差条件时,才更新模板目标。模板更新条件为s(E,,Q >5夙几,$(厶厶)>s(厶上。几
(8)兀-匚>%式中分别表示 HSV 和 LBP 直
方图相似度得分阈值,本文分别为6和3 ;F:, F-表示
当前匹配目标所在帧数和上一目标模板所在帧数;尸山 为帧差阈值,本文为5。设置帧差条件是为了避免目
标模板更新过于迅速,并且可以降低在模糊的帧图中 更新目标模板的概率。同时,在检测过程中可能会出现少量的帧无检测
结果的情况,这时跟踪算法TOD采用上一帧跟踪目标
结果作为当前帧的跟踪结果,且不更新模板目标。2.4 TOD算法流程本文提出的基于YOLOv3的目标跟踪算法TOD
的算法流程如下:1) 在第一帧图像中手动获取跟踪目标,同时将其 设为目标模板,提取目标模板的HSV直方特征向量和
LBP直方特征向量;2) 根据前一帧中的跟踪目标坐标位置生成K邻 域搜索图,&取3,并在搜索图中采用YOLOv3检测得 到检测结果;3) 根据类别标签过滤检测结果,得到同一类别的
目标候选框,若没有同类的候选目标,则以上一帧跟踪
目标坐标作为当前帧跟踪结果;4) 依次提取候选目标的HSV直方特征向量和 LBP直方特征向量,并根据式(4) ~式(7)计算两个直
方图的相似度及相似度得分,选择得分最高的候选目 标作为跟踪目标,如图6所示;5) 判断跟踪目标模板更新条件是否满足,满足则
更新模板,同时跳至步骤2),不满足则不更新模板。图6目标跟踪过程简要示意图Fig. 6 Sketch o£ object tracking process以VOT-2017序列图Bohl第30帧图像为例,分析第10期李晶等:基于YOLOV3目标跟踪方法91目标跟踪过程中候选目标与模板匹配过程。左上角的 小图像是目标跟踪模板,检测类别是person。图中,红 色框是上一帧(第29帧)匹配的跟踪结果,则本图以
此为基础,在K = 3的K邻域搜索同类目标(person), 得到4个候选目标,图6中分别以红色箭头指出;同时 计算每个候选目标与模板目标的直方图相似度得分,
结果显示在对应小图像下面,选择得分最高的候选目
标作为当前帧图像跟踪结果;根据目标模板更新条件 是否满足,判断当前帧是否更新目标模板。3实验结果与分析本文实验设备为MSI笔记本电脑,CPU为Intel-15 处理器,GPU 为 GTX1050Tio 在 Windows 系统上、Py- Charm开发平台下开发实现,结合OpenCV3.4,编程语 言选用Python。为了对比本文提出的跟踪算法实际性能,选用4 种 OpenCV3.4 内置跟踪算法 BOOSTING,MIL, KCF 和
TLD( Tracking-Leaming-Detection)作为对比跟踪算 法。测试序列图考虑到要包含目标姿势变化、尺度变
化、旋转变化、光照变化等复杂影响因素⑷,选用VOT- 2017 序列数据集上的 Bmx, Crossing, Graduate, Iceska-
terl ,Pedestrianl和Singer2这6组具有代表性的序列 图测试。3.1实验定性分析实验选用不同颜色的矩形框对不同的跟踪算法进 行区分。在每帧图片左上角有“#N”字样,N代表帧序 号。当某一算法丢失跟踪目标而跟踪失败时,该帧图片
左侧会显示“XX False”字样,XX代表跟踪算法名称。对于姿态变化,在序列图Iceskaterl中,跟踪目标 是图中滑雪运动员,如图7所示。--------KCF ---------BOOSTING TLD
MfL --------TOD图7 序列Iceskaterl跟踪结果
Fig. 7 Tracking results of sequences Iceskaterl当运动员仅仅摆动手臂时,如第4、第5帧所示,5 个跟踪算法都能很好地跟踪上;当运动员开始下蹲前 倾,四肢有较大变化时,如第100、第101帧所示,对比的 其他算法很难有较好的自适应性,本文跟踪算法TOD
能很好地适应这些变化;当运动员完成复杂的转体动 作并落地伸展双臂时,如第140、第151帧所示,对比算 法出现较大偏移,KCF算法甚至跟踪不上,而TOD算
法仍跟踪良好,体现出强大的适应性。对于尺度变换,在序列图Crossing中跟踪目标是
左侧红衣女士。场景中可以看到,当镜头由远及近时,
跟踪目标的尺度在逐渐变大。如图8中第一行3幅图 所示,在此过程中,其他对比算法虽然都能跟踪上,但 都有不同程度上的偏移。对于旋转变化,在序列图Bmx中,跟踪目标单车
运动员在腾空跃起过程中,不仅有很大的姿势变化,同 时还有很大的旋转。如第11、第29、第58帧所示,在 所有的5种跟踪算法中,KCF在第40帧后出现目标丢
失,除本文跟踪算法TOD外,其他算法均出现不同程
度的跟踪漂移。对于光照变化,在序列图Singer2中可以看出效果。
图中跟踪目标歌手在舞台中间,周围的光照环境一直在 变化。如第11、第41、第50、第59帧所示,每相邻的两
帧之间的光照变化很大,在所有的5种跟踪算法中,其
他各算法都有不同程度的偏移,尤其是在第59帧时,
光照突然变化加剧,如图8中最后3幅图所示,仅本文 跟踪算法TOD和BOOSTING算法能跟踪上目标。»KCF BOOSTING TLDMTL i -TOD图8序列Crossing,Bmx和Singer2部分跟踪结果Fig. 8 Part of tracking results of sequences Crossing,Bmx and Singer23.2实验定量分析为了对比出实验中5种算法的实际跟踪性能,采
用中心点距离误差和覆盖率这两个性能指标来衡量算
法性能⑴]。中心点距离误差是指预测目标中心点和实际目标
中心点的欧氏距离,其算式为92电光与控制第26卷D(Pi ,P2)= y/(xpl -x^)2 +(ypl -y^)2
(9)式中,切,* ,张分别表示预测目标中心点坐标和 实际目标中心点坐标。覆盖率是指预测目标框与实际目标框的相交部分
占其合并部分的比率,其算式为P(p,g)=a(p) Cla(g)
a(p) Ua(g)(10)式中,a(p),a(g)分别表示预测目标区域和实际目标 中心点区域。在实际对比测试中,当某一种算法在跟踪过程中 出现一些特定帧目标丢失的情形时,用前一帧跟踪结 果作为当前帧跟踪结果参与对比。部分可视化结果如图9、图10所示。-TOD-BCM)ST15G
KCFTLDM1L200a中心点距离误差图9 5种跟踪算法在序列Bmx上的性能对比Fig. 9 Performance of 5 tracking algorithms on
sequences Bmx图10序列Crossing中目标跟踪轨迹匕坐标)
Fig. 10 The trajectory o£ object tracking on sequences
Crossing(x coordinate)图9、图10中选用不同颜色曲线对不同的跟踪算 法进行区分。图10中的灰色线表示基准跟踪轨迹。在 VOT-2017 序列数据集的 Bmx, Crossing, Graduate ,Iceskaterl, pedestrianl 和 Singer2 这 6 组具有代表
性的序列图上测试,定量观测5种跟踪算法在这些序 列图上的实际性能。计算出各中心点距离误差平均值
和平均覆盖率,其中最优值数据用下划线标出。结果
如表2、表3所示。表2中心点距离误差平均值Table 2 Average of center distance error 像素TODBOOSTINGKCFTLDMILBmx27.56885.257133.048156.94387.294Crossing7.66941.37824.35624.44119.135Graduate7.26646.13845.25873.44135.462Iceskaterl11.21155.95530.19878.97738.251Pedestrianl6.5992.47280.61383.365100.704Singer212.57930.24110.54678.8114.317表3平均覆盖率Table 3Average of coverage%TODBOOSTINGKCFTLDMILBmx68.37916.01215.55512.84016.144Crossing58.89651.36134.66452.24044.552Graduate69.18822.92522.193]&52028.272Iceskaterl63.20126.26645.04616.72640.187Pedestrianl55.2523.8174.10913.7181.663Singer258.44249.92873.71121.83967.548从表2和表3可以看出,所选的6组序列图中,在 中心点距离误差指标上,除了 KCF算法在Singer2序 列图上的表现,其他组序列图都是本文跟踪算法TOD
表现最优;而在平均覆盖率指标上,除Singer2序列图 之外,其他序列图上也都是本文跟踪算法T0D最优。对于参与对比的4种跟踪算法中表现较好的KCF
算法,其在6组序列图上的中心点距离误差的平均值 约为54.003像素,覆盖率平均值为32.546% ,而本文跟
踪算法T0D这两个数据分别为12.147和62.226%,性
能分别提高了 77.51%和91.94%。由于本文选用基于深度学习的检测模型Y0L0v3, 而该检测算法对实验设备性能要求比较高,故跟踪速度 稍显不足。本文跟踪算法TOD的平均速度为11帧/s。
根据YOLOv3论文推荐配置,Y0L0v3的检测速度可 以达到45帧/s左右⑷,而在本文实验相同配置下,
Y0L0v3的实际检测速度在13帧/s左右。因此,可以
推断岀在硬件配置升级后,本文算法的跟踪速度将会
有进一步的提升。综上所述,对比多组序列图的跟踪性能后可以看 出,本文算法T0D的实际性能优于其他4种跟踪算
法,即使是在跟踪目标发生姿势变化、尺度变化、旋转
变化、光照变化等复杂情况下仍然能很好地跟踪目标, 跟踪性能提升明显。第10期李晶等:基于YOLOV3目标跟踪方法934结束语本文提出了一种以深度学习检测模型YOLOv3为 基础的目标跟踪算法TOD。在目标所在区域使用K邻 域搜索检测出候选目标,同时,结合跟踪目标的颜色直 方特征和局部二值特征进行目标筛选达到跟踪目的。
[6 ] REDMON J, FARHADI A. YOLOv3 : an incremental im
provement [EB/OL]. [2018-11-02]. https://arxiv. org/
pdf71804.02767vl.pdf.[7]
郑志强,刘妍妍,潘长城,等.改进YOLO V3遥感图像
飞机识别应用[J].电光与控制,2019, 26(4) =28-32.[8]
田健,王开军.自适应紧致特征的超像素目标跟踪 [J].中国图象图形学报,2017, 22(10) : 1409-1417.实验结果显示,相较于目前几种经典的跟踪算法,本文 算法有更好的性能表现,在跟踪目标发生姿态变化、尺 度变化、旋转变化和光照变化等复杂情况下也具有很 好的鲁棒性。但不足之处在于其跟踪速度没有达到实 时要求,在本文实验环境下只有11帧/s,其跟踪速度
性能有待提高。参考文献[1]
闵召阳,赵文杰.基于深度学习的目标抗干扰跟踪算
法[J].红外技术,2018,40(2) : 176-182.[2]
HENRIQUES J F, CASEIRO R, MARTINS P, et al. High- speed tracking with kemelized correlation filters [ J ]. IEEE Transactions on Pattern Analysis & Machine Intelli
gence, 2014, 37(3) :583-596.[3]
BABENKO B, YANG M H. Visual tracking with online
multiple instance learning [ C ] //IEEE Conference on Computer Vision and Pattern Recognition, 2009: 11-17.[4]
管皓,薛向阳,安志勇•深度学习在视频目标跟踪中的 应用进展与展望[J ]•自动化学报,2016,42(6): 834- 847.[5] 唐聪,凌永顺,杨华,等.基于深度学习物体检测的视 觉跟踪方法[J].红外与激光工程,201& 47 ( 5 ):
0526001-1-0526001-11.[9] 毕威,黄伟国,张永萍,等.基于图像显著轮廓的目标
检测[J].电子学报,2017,45(8) =1902-1910.[10]
吉培培,陈恳,刘哲,等.结合HOG-LBP特征及多实
例在线学习的随机蕨目标跟踪方法[J].宁波大学学
报:理工版,2015, 28(4) :42-47,[11] 陆惟见,尚振宏,刘辉,等.基于多模板的鲁棒运动目
标跟踪方法[J].传感器与微系统,2018, 37(2) :53-56,[12]
BAL A, ALUM M S. Automatic target tracking in FLIR
image sequences [ C ] //Automatic Target Recognition, SPIE, 2004, 5423:30-36.[13] KALAL Z, MATAS J, MIKOLAJCZYK K. P-N learning:
bootstrapping binary classifiers by structural constraints [C]//IEEE Conference on Computer Vision and Pattern
Recongnition, 2010 :49-56.[14] 罗海波,许凌云,惠斌,等.基于深度学习的目标跟踪
方法研究现状与展望[J].红外与激光工程,2017,46 (5):6-12.[15] 王海军,葛红娟,张圣燕.基于L1范数和最小软阈值
均方的目标跟踪算法[J].山东大学学报:工学版, 2016,46(3) : 14-22.
因篇幅问题不能全部显示,请点此查看更多更全内容