《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 設計應用 > 一種基于FPGA的CNN硬件加速器實現
一種基于FPGA的CNN硬件加速器實現
電子技術應用
邱臻博
重慶郵電大學 光電工程學院, 重慶 400065
摘要: 提出了一種基于FPGA的通用CNN硬件加速器設計方案。針對計算量最大的卷積層,采用了輸入通道并行、核內并行、輸出通道并行三種加速方式,根據FPGA的片上資源,合理地設置相應并行度。在數據加載方面,采用相鄰數據位寬合并傳輸,有效提高了加速器的實際傳輸帶寬。基于行的數據流加載思想,設計了輸入緩存模塊。該緩存模塊只需緩存兩行數據即可開始卷積運算,有效地提前卷積運算的開始時間。在數據輸入、數據運算、數據輸出模塊之間,利用流水線循環優化方式,極大地提高了硬件的計算性能。最后將該加速器應用于VGG16和Darknet-19網絡,實驗表明,計算性能分別達到34.30 GOPS和33.68 GOPS,DSP計算效率分別高達79.45%和78.01%。
中圖分類號:TP391 文獻標志碼:A DOI: 10.16157/j.issn.0258-7998.234372
中文引用格式: 邱臻博. 一種基于FPGA的CNN硬件加速器實現[J]. 電子技術應用,2023,49(12):20-25.
英文引用格式: Qiu Zhenbo. An FPGA-based implementation of CNN hardware accelerator[J]. Application of Electronic Technique,2023,49(12):20-25.
An FPGA-based implementation of CNN hardware accelerator
Qiu Zhenbo
College of Photoelectric Engineering, Chongqing University of Posts and Telecommunications, Chongqing 400065, China
Abstract: This paper proposes a general CNN hardware accelerator design scheme based on FPGA. For the most computationally intensive convolutional layer, three acceleration modes are adopted: input channel parallelism, intra-core parallelism, and output channel parallelism, and the corresponding parallelism degree is reasonably set according to the on-chip resources of FPGA. In terms of data loading, adjacent data bit width combined transmission is adopted, which effectively improves the actual transmission bandwidth of the accelerator. Based on the idea of row-based data flow loading, the input cache module is designed. The cache module only needs to cache two rows of data to start the convolution operation, effectively advancing the start time of the convolution operation. Between the data input, data operation, and data output modules, the pipeline cycle optimization method is used to greatly improve the computing performance of the hardware. Finally, the accelerator is applied to VGG16 and Darknet-19 networks, and experiments show that the computing performance reaches 34.30 GOPS and 33.68 GOPS, respectively, and the DSP computing efficiency is as high as 79.45% and 78.01%.
Key words : convolutional neural network acceleration;FPGA;row data loading;module division;pipeline structure

0 引言

隨著深度學習技術的飛速發展,神經網絡模型在圖像識別、目標檢測和圖像分割等領域取得了巨大技術進步[1-2]。然而相比較傳統算法,神經網絡在獲得高的性能同時也帶來了高計算復雜度的問題,使得基于專用硬件設備加速神經網絡成為神經網絡模型應用領域關注的焦點。目前,神經網絡模型硬件加速的主要方案有GPU、ASIC和FPGA三種方案。相比較GPU,FPGA具有成本功耗低的特點;相比較ASIC,FPGA具有模型實現靈活、開發速度快、綜合成本低的特點,特別適用于當前神經網絡在邊緣設備上部署的需求,因此基于FPGA的神經網絡模型加速研究成為當前神經網絡領域研究的熱點[3-5]。

大多數神經網絡模型中卷積層的運算量占到了總計算量的90%以上,因此可以通過在FPGA中執行卷積運算來實現神經網絡加速[6-7]。文獻[6]基于FPGA實現通用矩陣乘法加速器來實現神經網絡加速,獲得了很好的加速性能。文獻[7]則提出了一種基于脈動陣結構的矩陣乘法加速模塊,并用于神經網絡加速,獲得了較好的性能提升。文獻[8-9]從卷積運算的加速算法方面進行研究,Liang Y[8]等人基于二維Winograd算法在FPGA上對CNN進行了實現,與常規的卷積計算單元相比,該實現中基于二維Winograd算法設計的卷積計算單元將乘法操作減少了56%。Tahmid Abtahi[10]等人使用快速傅里葉變換(Fast Fourier Transform,FFT)對ResNet-20模型中的卷積運算進行優化,成功減少了單個卷積計算單元的DSP資源使用量。除卷積運算加速外,相關研究團隊對神經網絡加速過程中的其他方面也展開深入研究[10-14]。文獻[10]提出了一種塊卷積方法,這是傳統卷積的一種內存高效替代方法,將中間數據緩沖區從外部DRAM完全移動到片上存儲器,但隨著分塊層數的增加,精度會降低。文獻[11]提出一種相鄰層位寬合并和權重參數重排序的策略實現數據傳輸的優化方法,增加數據傳輸并行度的同時節省了通道的使用。文獻[12-14]采取乒-乓處理結構,分別在輸入模塊、卷積運算單元、輸出模塊方面提升了卷積運算的速率。



本文詳細內容請下載http://www.xxav2194.com/resource/share/2000005800


作者信息

邱臻博

(重慶郵電大學 光電工程學院, 重慶 400065)




weidian.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 国产边摸边吃奶叫床视频| 中文字幕一区二区三区久久网站| 国产免费插插插| 国产高清视频网站| 国产福利在线导航| 国产亚洲欧美日韩v在线| 国产日韩av在线播放| 国产久热精品无码激情| 国产喷水在线观看| 免费观看的av毛片的网站| 国产乱妇乱子在线视频| 国产又色又爽又刺激视频 | 日韩欧美三级视频| 性高湖久久久久久久久| 日韩毛片在线视频| 慧静和一群狼好爽| 国产精品冒白浆免费视频| 国产99视频精品免视看9| 亚洲熟妇无码爱v在线观看| 久久精品*5在热| a级片免费在线| 两个人看的www免费视频| 69久久夜色精品国产69小说| 西西人体免费视频| 波多野结衣中文字幕一区二区三区| 特级做a爰片毛片免费看| 日韩人妻一区二区三区蜜桃视频| 无限在线观看下载免费视频| 手机在线视频你懂的| 国内精品伊人久久久久影院对白| 国产精品视频二区不卡| 国产精品无码无需播放器| 国产99久久亚洲综合精品| 亚洲成在人线电影天堂色| 中文字幕久久综合| 一区二区三区在线免费观看视频| 亚洲综合伊人制服丝袜美腿| 秦先生第15部大战宝在线观看| 日韩精品一区二区亚洲av观看| 日本视频免费在线| 成人国内精品久久久久一区|