• 北大核心期刊(《中文核心期刊要目总览》2017版)
  • 中国科技核心期刊(中国科技论文统计源期刊)
  • JST 日本科学技术振兴机构数据库(日)收录期刊

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

一种2D权值固定数据流架构的研究

程智 杨靓 王硕 娄冕

程智, 杨靓, 王硕, 娄冕. 一种2D权值固定数据流架构的研究[J]. 微电子学与计算机, 2021, 38(2): 30-33.
引用本文: 程智, 杨靓, 王硕, 娄冕. 一种2D权值固定数据流架构的研究[J]. 微电子学与计算机, 2021, 38(2): 30-33.
CHENG Zhi, YANG Liang, WANG Shuo, LOU Mian. Research on a 2D Weight Stationary Dataflow Architecture[J]. Microelectronics & Computer, 2021, 38(2): 30-33.
Citation: CHENG Zhi, YANG Liang, WANG Shuo, LOU Mian. Research on a 2D Weight Stationary Dataflow Architecture[J]. Microelectronics & Computer, 2021, 38(2): 30-33.

一种2D权值固定数据流架构的研究

详细信息
    作者简介:

    程智  男,(1993-),硕士研究生.研究方向为嵌入式系统设计.E-mail: xga_Cz@163.com

    杨靓  男,(1975-),博士,研究员.研究方向为嵌入式计算机体系结构

    王硕  男,(1988-),学士,工程师.研究方向为计算机体系结构

    娄冕  男,(1987-),博士,高级工程师.研究方向为嵌入式处理器体系结构

  • 中图分类号: TP302.1

Research on a 2D Weight Stationary Dataflow Architecture

  • 摘要:

    随着人工智能算法的发展,卷积神经网络(CNN)在图像、音频等方面的应用越来越广泛,CNN算法的计算量也越来越大.权值固定数据流(WS)将权值固定在寄存器中,是一种最大化利用卷积重用和filter重用的数据流.不过当前的权值固定数据流结构存在建立流水线时间过长的问题.本文研究了一种去除PE(Process Element)行之间的FIFO,用加法器连接PE行的2D权值固定数据流结构.这种2D权值固定的数据流结构计算AlexNet时减少了近2.7倍建立流水线时间,并且能够灵活地调整卷积步长.

     

  • 图 1  数据在各层次移动的成本比较[3]

    图 2  CNP架构的权值固定数据流阵列

    图 3  AlexNet不同层建立流水线时间和卷积输出时间占比

    图 4  2D权值固定数据流阵列示意图

    图 5  2D权值固定计算时空图

    图 6  四种CNN算法建立流水时间消耗对比

  • [1] DENG L, LI J Y, HUANG J T, et al.Recent advances in deeplearning for speech research at Microsoft[C]//Proceedings of2013 IEEE International Conference on Acoustics, Speech and Signal Processing. Vancouver, BC, Canada: IEEE, 2013: 8604-8608. DOI: 10.1109/ICASSP.2013.6639345.
    [2] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification withdeep convolutional neural networks[C]//Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada: ACM, 2012: 1097-1105.
    [3] SZE V, CHEN Y H, YANG T J, et al. Efficient processing of deep neural networks: a tutorial and survey[J]. Proceedings of the IEEE, 2017, 105(12): 2295-2329. DOI: 10.1109/JPROC.2017.2761740.
    [4] CHEN Y H, EMER J, SZE V. Eyeriss: a spatial architecture for energy-efficient dataflow for convolutional neural networks[C]//Proceedings of2016 ACM/IEEE 43rd Annual International Symposium on Computer Architecture. Seoul, South Korea: IEEE, 2016: 367-379. DOI: 10.1109/ISCA.2016.40.
    [5] FARABET C, POULET C, HAN J Y, et al. CNP: an FPGA-based processor for convolutional networks[C]//Proceedings of2009 International Conference on Field Programmable Logic and Applications. Prague, Czech Republic: IEEE, 2009: 32-37. DOI: 10.1109/FPL.2009.5272559.
    [6] CHEN H Y, KRISHNA T, EMER J S, et al. Eyeriss: an energy-efficient reconfigurable accelerator for deep convolutional neural networks[J]. IEEE Journal of Solid-State Circuits, 2017, 52(1): 127-138. DOI: 10.1109/JSSC.2016.2616357.
    [7] LU W Y, YAN G H, LI J J, et al. FlexFlow: a flexible dataflow accelerator architecture forconvolutional neural networks[C]//Proceedings of2017 IEEE International Symposium on High Performance Computer Architecture. Austin, TX, USA: IEEE, 2017: 553-564. DOI: 10.1109/HPCA.2017.29.
    [8] DONAHUE J. Caffenet[EB/OL]. https://github.com/BVLC/caffe/tree/master/models/bvlc_reference_caffenet.
    [9] LIN M, CHEN Q, YAN S C. Network in network[J]. arXiv: 1312.4400, 2013.
    [10] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 770-778. DOI: 10.1109/CVPR.2016.90.
  • 加载中
图(6)
计量
  • 文章访问数:  830
  • HTML全文浏览量:  554
  • PDF下载量:  110
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-05-18
  • 修回日期:  2020-06-21

目录

    /

    返回文章
    返回