《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 設(shè)計(jì)應(yīng)用 > 基于Anchor-free架構(gòu)的行人檢測(cè)方法
基于Anchor-free架構(gòu)的行人檢測(cè)方法
2020年信息技術(shù)與網(wǎng)絡(luò)安全第4期
張慶伍,關(guān)勝曉
(中國(guó)科學(xué)技術(shù)大學(xué) 微電子學(xué)院,安徽 合肥 230026)
摘要: 使用無(wú)預(yù)選框(Anchor-free)的檢測(cè)框架,設(shè)計(jì)了一種行人檢測(cè)算法。將深度殘差網(wǎng)絡(luò)(ResNet)作為特征提取網(wǎng)絡(luò),與特征金字塔網(wǎng)絡(luò)(FPN)結(jié)構(gòu)相結(jié)合,使用了多尺度預(yù)測(cè)的方式進(jìn)行預(yù)測(cè)。把目標(biāo)中心點(diǎn)和尺寸作為一種高級(jí)的語(yǔ)義特征,將含有更多細(xì)節(jié)信息的淺層特征圖和含有更多語(yǔ)義信息的深層特征圖進(jìn)行融合。在Citypersons數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)驗(yàn)證,相較現(xiàn)有行人檢測(cè)算法,提出的算法在輕微遮擋、一般遮擋和嚴(yán)重遮擋情況下漏檢率分別提升了1.11%~3.01%,0.15%~6.55%和0.59%~6.39%,檢測(cè)效果更好。
中圖分類(lèi)號(hào):TP183
文獻(xiàn)標(biāo)識(shí)碼:A
DOI: 10.19358/j.issn.2096-5133.2020.04.008
引用格式:張慶伍,關(guān)勝曉.基于Anchor-free架構(gòu)的行人檢測(cè)方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(4):43-47,52.
Pedestrian detection algorithms based on Anchor-free architecture
Zhang Qingwu,Guan Shengxiao
(School of Microelectronics,University of Science and Technology of China,Hefei 230026,China)
Abstract: This paper designed a pedestrian detection algorithm based on the Anchor-free detection framework.The deep residual network (ResNet) was used as a feature extraction network,combined with the feature pyramid structure (FPN),and finally multiscale prediction was used for prediction.This paper also regarded the target center point and size as an advanced semantic feature,and combined the shallow feature map with more detailed information and the deep feature map with more semantic information.The experiments were verified on the Citypersons dataset.Compared with the existing pedestrian detection algorithms, the detection results were respectively improved by 1.11%~3.01%, 0.15%~6.55% and 0.59%~6.39% in the case of slight occlusion, general occlusion and severe occlusion, and the detection effect is better.
Key words : Anchor-free;pedestrian detection;feature fusion;multi-scale detection

0    引言

行人檢測(cè)是智能安防和車(chē)輛輔助駕駛等實(shí)際應(yīng)用的關(guān)鍵技術(shù)。隨著計(jì)算機(jī)視覺(jué)技術(shù)的快速發(fā)展,目標(biāo)檢測(cè)算法的性能也不斷提升。目前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法按照是否提出預(yù)選框可以分為兩大類(lèi):一類(lèi)是基于預(yù)選框的檢測(cè)算法,該類(lèi)算法首先預(yù)先設(shè)置預(yù)選框,然后通過(guò)預(yù)選框和真實(shí)目標(biāo)進(jìn)行匹配,最終選出合適的預(yù)選框進(jìn)行訓(xùn)練,這類(lèi)算法以FasterRCNN和SSD為代表;另一類(lèi)是不使用預(yù)選框的檢測(cè)算法,該類(lèi)算法首先對(duì)預(yù)測(cè)目標(biāo)的關(guān)鍵點(diǎn)進(jìn)行標(biāo)注,然后將深度神經(jīng)網(wǎng)絡(luò)的輸出設(shè)置成相同的格式,直接進(jìn)行訓(xùn)練,這類(lèi)算法以YOLO和DenseBox為代表。其中,Anchorfree的算法框架結(jié)構(gòu)簡(jiǎn)潔,更加適用于計(jì)算資源較少的實(shí)際應(yīng)用場(chǎng)景。本文在Anchor-free算法的基礎(chǔ)上,首先使用不同的基礎(chǔ)網(wǎng)絡(luò)構(gòu)建檢測(cè)算法,然后選出性能穩(wěn)定的基礎(chǔ)網(wǎng)絡(luò),利用特征金字塔結(jié)構(gòu)對(duì)不同卷積層上的特征圖進(jìn)行融合,提升檢測(cè)效果,最后使用多尺度預(yù)測(cè)的方法,通過(guò)不同尺度的預(yù)測(cè)圖生成了更多的檢測(cè)結(jié)果,再次提升了檢測(cè)效果。本文算法在Citypersons數(shù)據(jù)集上進(jìn)行了驗(yàn)證,其檢測(cè)精度相較其他行人檢測(cè)算法有一定提升。






本文詳細(xì)內(nèi)容請(qǐng)下載:http://www.xxav2194.com/resource/share/2000003204





作者信息:

張慶伍,關(guān)勝曉

(中國(guó)科學(xué)技術(shù)大學(xué) 微電子學(xué)院,安徽 合肥 230026)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 亚洲精品成人网久久久久久| 国产成人精品福利网站在线| 久久91精品综合国产首页| 欧美日韩国产专区| 又黄又爽免费视频| 狠狠色综合色区| 国自产偷精品不卡在线| 中文国产成人精品久久水| 最近中文字幕mv在线视频www| 伊人久久大香线蕉无码| 色国产精品一区在线观看| 国产男女猛烈无遮挡免费视频网站| ts人妖系列在线专区| 日本三级片网站| 亚洲jizzjizz妇女| 波多野结衣不打码视频| 午夜福利麻豆国产精品| 麻豆一卡2卡三卡4卡网站在线| 国产精品视频第一区二区三区| yellow动漫免费高清无删减| 日本乱人伦aⅴ精品| 亚洲av综合色区无码一区爱av| 波多野结衣在线观看3人| 午夜福利AV无码一区二区| 香蕉97超级碰碰碰免费公| 国产精品嫩草影院线路| a级毛片免费在线观看| 成人国产网站v片免费观看 | avtt天堂网手机版亚洲| 大黑人交xxxx| 一级毛片免费播放视频| 日本japanese丰满奶水| 乱子伦一区二区三区| 欧美日韩国产人成在线观看| 交换配乱淫粗大东北大坑性事| 老司机亚洲精品影院| 国产又大又长又粗又硬的免费视频| 亚洲xxxxx| 国产美女口爆吞精普通话 | 波多野结衣无限| 公侵犯玩弄漂亮人妻优|