• 北大核心期刊(《中文核心期刊要目总览》2017版)
  • 中国科技核心期刊(中国科技论文统计源期刊)
  • JST 日本科学技术振兴机构数据库(日)收录期刊

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于非对称残差注意网络的目标跟踪算法

崔珂璠 熊淑华 陈洪刚 吴晓红 何小海

崔珂璠, 熊淑华, 陈洪刚, 吴晓红, 何小海. 基于非对称残差注意网络的目标跟踪算法[J]. 微电子学与计算机, 2021, 38(9): 8-16.
引用本文: 崔珂璠, 熊淑华, 陈洪刚, 吴晓红, 何小海. 基于非对称残差注意网络的目标跟踪算法[J]. 微电子学与计算机, 2021, 38(9): 8-16.
CUI Kefan, XIONG Shuhua, Chen Honggang, WU Xiaohong, HE Xiaohai. An object tracking algorithm based on asymmetric residual attention network[J]. Microelectronics & Computer, 2021, 38(9): 8-16.
Citation: CUI Kefan, XIONG Shuhua, Chen Honggang, WU Xiaohong, HE Xiaohai. An object tracking algorithm based on asymmetric residual attention network[J]. Microelectronics & Computer, 2021, 38(9): 8-16.

基于非对称残差注意网络的目标跟踪算法

基金项目: 

国家自然科学基金 61871278

四川省科技计划项目 2019YFH0034

详细信息
    作者简介:

    崔珂璠  女,(1997-),硕士研究生.研究方向为计算机视觉、图像处理

    熊淑华  女,(1969-),博士,副教授.研究方向为多媒体通信

    吴晓红  女,(1970-),博士,副教授.研究方向为图像处理与模式识别、计算机视觉、无线通信

    何小海  男,(1964-),博士,教授.研究方向为图像处理、模式识别、图像通信

    通讯作者:

    陈洪刚(通讯作者)  男,(1991-),博士,助理研究员.研究方向为图像处理.E-mail:honggang_chen@scu.edu.cn

  • 中图分类号: TP391.41

An object tracking algorithm based on asymmetric residual attention network

  • 摘要: 针对目标跟踪算法在运动目标中存在的背景干扰和鲁棒性问题,提出一种基于Siamese RPN++改进的非对称残差注意网络算法.通过在模板分支对应的网络中添加非对称残差注意力结构,从而提取出采样图像的共同特征,形成较为稳定的目标轮廓,解决了目标运动背景发生变化的问题;采用自适应权值更新的方法融合不同区域候选网络模块输出的特征,得到更为鲁棒性的尺度变化特征表达,解决了目标形变的问题.实验结果表明:提出的改进算法在具有挑战的跟踪测试视频上取得了良好的跟踪精度,且具有较好的鲁棒性,能够较好地应对运动背景变化、尺度变化等问题.
  • 图  1  算法框架

    图  2  非对称残差注意力模块

    图  3  不同核大小的二维卷积的可加性

    图  4  VOT2018上的期望重叠曲线和A-R图

    图  5  5种算法对各视频序列跟踪结果对比

    表  1  所提模型在VOT2018数据集的消融实验

    模型 EAO Accuracy Robustness fps
    Base 0.414 0.600 0.234 71.0
    Base+ARANet 0.410 0.602 0.253 66.9
    Base+ARANet+selfWeight 0.414 0.611 0.215 63.8
    下载: 导出CSV

    表  2  不同算法在VOT2018测试集的精度

    算法 EAO Accuracy Robustness
    SiamRPN[13] 0.384 0.588 0.276
    MFT[13] 0.386 0.505 0.140
    DaSiamRPN[13] 0.326 0.569 0.337
    LADCF[13] 0.389 0.503 0.159
    SiamAN[13] 0.22 0.54 0.181
    STRCF[13] 0.345 0.523 0.215
    CCOT[13] 0.267 0.49 0.32
    CFNet[13] 0.1875 0.498 0.602
    DCFNet[13] 0.182 0.464 0.352
    UPDT[13] 0.379 0.536 0.184
    DRT[13] 0.355 0.518 0.201
    SiamARA 0.414 0.611 0.215
    下载: 导出CSV

    表  3  不同算法对不同属性视频序列的精度

    算法 IV SV OCC FM OV LR
    SiamRPN 0.454 0.454 0.415 0.51 0.525 0.453
    DaSiamRPN 0.551 0.552 0.453 0.554 0.553 0.554
    CFNet 0.548 0.46 0.42 0.51 0.515 0.510
    CCOT 0.446 0.450 0.391 0.483 0.515 0.499
    DCFNet 0.530 0.448 0.379 0.465 0.487 0.469
    ECO 0.501 0.45 0.358 0.468 0.52 0.47
    SiamARA 0.612 0.58 0.52 0.601 0.62 0.601
    下载: 导出CSV
  • [1] 文武, 姜涛. 融合SIFT和尺度方向自适应的Mean shift目标跟踪算法[J]. 微电子学与计算机, 2015, 32(10): 93-97. DOI:  10.19304/j.cnki.issn1000-7180.2015.10.020.

    WEN W, JIANG T. Object tracking algorithm fusing SIFT and scale-orientation adaptive Mean shift[J]. Microelectronics&Computer, 2015, 32(10): 93-97. DOI:  10.19304/j.cnki.issn1000-7180.2015.10.020.
    [2] 孙志旻, 张秀彬, 张峰, 等. 复杂背景中移动目标的快速识别与跟踪[J]. 微电子学与计算机, 2003, 20(11): 48-51. DOI:  10.3969/j.issn.1000-7180.2003.11.014.

    SUN Z M, ZHANG X B, ZHANG F, et al. The fast recognition and trace of moving targets in a complicated background[J]. Microelectronics&Computer, 2003, 20(11): 48-51. DOI:  10.3969/j.issn.1000-7180.2003.11.014.
    [3] MA C, HUANG JB, YANG X K, et al. Hierarchical convolutional features for visual tracking[C]//Proceedings of the IEEE International Conference on Computer Vision. Santiago: IEEE, 2015: 3074-3082. DOI: 10.1109/ICCV.2015.352.
    [4] NAM H, HAN B. Learning multi-domain convolutional neural networks for visual tracking[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 4293-4302. DOI: 10.1109/CVPR.2016.465.
    [5] TAO R, GAVVES E, SMEULDERS A W M. Siamese instance search for tracking[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 1420-1429. DOI: 10.1109/CVPR.2016.158.
    [6] BERTINETTO L, VALMADRE J, HENRIQUES J F, et al. Fully-convolutional siamese networks for object tracking[C]//European Conference on Computer Vision. Amsterdam: Springer, 2016: 850-865. DOI: 10.1007/978-3-319-48881-3_56.
    [7] LI B, YAN J J, WU W, et al. High performance visual tracking with siamese region proposal network[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 8971-8980. DOI: 10.1109/CVPR.2018.00935.
    [8] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149. DOI:  10.1109/TPAMI.2016.2577031.
    [9] LI B, WU W, WANG Q, et al. Siamrpn++: evolution of siamese visual tracking with very deep networks[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019: 4282-4291. DOI: 10.1109/CVPR.2019.00441.
    [10] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 770-778. DOI: 10.1109/CVPR.2016.90.
    [11] KRISTAN M, LEONARDIS A, MATAS J, et al. The sixth visual object tracking VOT2018 challenge results[C]//Proceedings of the European Conference on Computer Vision (ECCV). Munich: Springer, 2018: 3-53. DOI: 10.1007/978-3-030-11009-3_1.
    [12] KRISTAN M, MATAS J, LEONARDIS A, et al. The visual object tracking VOT2015 challenge results[C]//Proceedings of the IEEE International Conference on Computer Vision Workshop. Santiago: IEEE, 2015: 564-586. DOI: 10.1109/ICCVW.2015.79.
    [13] MARVASTI-ZADEH S M, CHENG L, GHANEI-YAKHDAN H, et al. Deep learning for visual tracking: a comprehensive survey[J]. IEEE Transactions on Intelligent Transportation Systems, 2019. DOI:  10.1109/TITS.2020.3046478.
  • 加载中
图(5) / 表(3)
计量
  • 文章访问数:  66
  • HTML全文浏览量:  26
  • PDF下载量:  22
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-12-25
  • 修回日期:  2021-03-07
  • 刊出日期:  2021-09-05

目录

    /

    返回文章
    返回