《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 設(shè)計應(yīng)用 > 基于VGG16網(wǎng)絡(luò)的人臉情緒識別
基于VGG16網(wǎng)絡(luò)的人臉情緒識別
2022年電子技術(shù)應(yīng)用第1期
蔡 靖,杜佳辰,王 慶,周泓任
吉林大學(xué) 儀器科學(xué)與電氣工程學(xué)院,吉林 長春130026
摘要: 近年來,如何通過人工智能對人的面部表情進行識別分析成為一個研究熱點,利用人工智能可以快速地分析人的面部情緒,并以此為基礎(chǔ)進行進一步研究。在深度學(xué)習(xí)中,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)存在對面部表情特征的提取不充分以及計算機參數(shù)量較大的問題,導(dǎo)致分類準(zhǔn)確率較低。因此,提出了基于VGG16網(wǎng)絡(luò)的人臉表情識別算法,通過與InceptionV3、InceptionResNetV2、ResNet50等模型實驗對比,結(jié)果表明,VGG16神經(jīng)網(wǎng)絡(luò)在FER2013PLUS測試數(shù)據(jù)集上的識別準(zhǔn)確率為79%,準(zhǔn)確率比傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)高。
中圖分類號: TP183;TP391.41
文獻標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.211516
中文引用格式: 蔡靖,杜佳辰,王慶,等. 基于VGG16網(wǎng)絡(luò)的人臉情緒識別[J].電子技術(shù)應(yīng)用,2022,48(1):67-70,75.
英文引用格式: Cai Jing,Du Jiachen,Wang Qing,et al. Facial emotion recognition based on VGG16 network[J]. Application of Electronic Technique,2022,48(1):67-70,75.
Facial emotion recognition based on VGG16 network
Cai Jing,Du Jiachen,Wang Qing,Zhou Hongren
College of Instrumentation & Electrical Engineering,Jilin University,Changchun 130026,China
Abstract: In recent years, how to recognize and analyze people′s facial expressions through artificial intelligence has become a research hotspot. Using artificial intelligence can quickly analyze people′s facial emotions, and further research is carried out on this basis. In deep learning, the traditional convolutional neural network can not extract facial expression features sufficiently, and the amount of computer parameters is large, which leads to low classification accuracy. Therefore, a facial expression recognition algorithm based on VGG16 neural network is proposed. Compared with the model experiments of InceptionV3, InceptionResNetV2 and ResNet50, the results show that the recognition accuracy of VGG16 neural network on FER2013PLUS test data set is 79%, which is higher than that of traditional convolution neural network.
Key words : deep learning;convolutional neural network;emotion recognition;VGG16

0 引言

    Hinton等人在研究深度卷積神經(jīng)網(wǎng)絡(luò)中通過引入ReLU函數(shù)以及采用多GPU訓(xùn)練等方式加快了網(wǎng)絡(luò)的訓(xùn)練速度并提高了網(wǎng)絡(luò)模型的準(zhǔn)確率[1]。LeCun等人表明深度學(xué)習(xí)通過使用反向傳播算法來發(fā)現(xiàn)大型數(shù)據(jù)集中的復(fù)雜結(jié)構(gòu),以指示機器應(yīng)如何更改用于從前一層的表示計算每一層的表示的內(nèi)部參數(shù)。深度卷積網(wǎng)絡(luò)在處理圖像、視頻、語音和音頻方面取得了突破性進展,而遞歸網(wǎng)絡(luò)則為文本和語音等順序數(shù)據(jù)帶來了光明[2]。隨著科學(xué)技術(shù),尤其是計算機技術(shù)方面的不斷進步,人們對卷積神經(jīng)網(wǎng)絡(luò)的研究也不斷深入,面部表情識別技術(shù)也隨之得到了發(fā)展。同時,一些問題也隨之而來,例如:如何提高面部表情分類的準(zhǔn)確率,如何能夠在保證準(zhǔn)確率的前提下減少計算的參數(shù)量等。

    Tang等人[3]提出將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)中融入支持向量機(SVM),同時修改了全連接層中的計算損失值的方法,在表情數(shù)據(jù)集上的測試結(jié)果為71.2%,斬獲了當(dāng)年Kaggle比賽的一等獎。崔鳳焦[4]將卷積神經(jīng)網(wǎng)絡(luò)、Adaboost和支持向量機3種模型算法結(jié)構(gòu)進行相互比較和設(shè)計優(yōu)化,在Cohn-Kanade表情庫中實現(xiàn)了對人臉情緒的智能識別,平均識別率最高達到了74.92%。謝鑫等人[5]采用了耗時加長的杜鵑算法(CuckooSearch,CS)對ResNet50模型進行了變更改進,提高了準(zhǔn)確率并使算法不會在調(diào)參時陷入梯度消失或爆炸的問題,準(zhǔn)確率達到了74.3%。陳佳等人[6]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)集成的表情識別方法,子網(wǎng)結(jié)構(gòu)在第一階段訓(xùn)練3個子網(wǎng)絡(luò),采用Batch Normalization方法和Dropout層來加速網(wǎng)絡(luò)的收斂。接著去掉3個子網(wǎng)絡(luò)的輸出層,使用SVM進行第二階段的訓(xùn)練,完成最終表情的預(yù)測,其準(zhǔn)確率達到了70.84%。




本文詳細(xì)內(nèi)容請下載:http://www.xxav2194.com/resource/share/2000003910




作者信息:

蔡  靖,杜佳辰,王  慶,周泓任

(吉林大學(xué) 儀器科學(xué)與電氣工程學(xué)院,吉林 長春130026)




wd.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 久别的草原电视剧免费观看| 卡一卡2卡3高清乱码网| a级成人毛片久久| 日韩一级视频免费观看| 人人妻人人爽人人做夜欢视频九色| 里番acg全彩本子同人视频 | 亚洲欧美色图小说| 老司机免费在线| 国产日产欧产精品精品电影| 99亚洲精品视频| 成人午夜性A级毛片免费| 久久精品这里热有精品2015| 欧美精品黑人粗大视频| 免费高清电影在线观看| 被男按摩师添的好爽在线直播| 国产精品免费视频一区| a级毛片无码免费真人| 无码人妻丰满熟妇啪啪网站| 亚洲av本道一区二区三区四区| 清超市欲目录大团结| 印度精品性hd高清| 韩国无码AV片在线观看网站| 国产精品女上位在线观看| d动漫精品专区久久| 成年网在线观看免费观看网址| 久青草影院在线观看国产| 欧美激情精品久久| 健硕粗大猛烈浓精| 紫黑粗硬狂喷浓精| 国产亚洲精品美女| 欧美色图五月天| 国产精品自产拍高潮在线观看| videos性欧美| 成人免费男女视频网站慢动作| 久久人人爽人人爽人人爽| 榴莲视频app色版| 亚洲欧美丝袜综合精品第一页| 男女一进一出抽搐免费视频| 四虎www成人影院| 边摸边吃奶边做爽免费视频网站| 国产激情无码视频在线播放性色|