两个人的电影免费视频_国产精品久久久久久久久成人_97视频在线观看播放_久久这里只有精品777_亚洲熟女少妇二三区_4438x8成人网亚洲av_内谢国产内射夫妻免费视频_人妻精品久久久久中国字幕

線性判別深度信念網(wǎng)絡(luò)的多姿態(tài)人臉識別方法與流程

文檔序號:11708032閱讀:269來源:國知局
線性判別深度信念網(wǎng)絡(luò)的多姿態(tài)人臉識別方法與流程
本發(fā)明涉及圖像分類、模式識別
技術(shù)領(lǐng)域
,具體涉及到多姿態(tài)人臉的識別。
背景技術(shù)
:隨著人工智能的不斷發(fā)展,多姿態(tài)人臉識別已被廣泛應(yīng)用于智能人機(jī)交互、身份驗(yàn)證、駕駛員疲勞狀態(tài)監(jiān)控等方面,逐漸成為圖像處理等
技術(shù)領(lǐng)域
的熱門研究課題。多姿態(tài)人臉識別是在非限制條件下識別出人的頭部姿態(tài),從而判斷人的身體狀態(tài)和心理狀態(tài),比如仰頭、低頭、左轉(zhuǎn)、右轉(zhuǎn)等,具有非常重要的現(xiàn)實(shí)意義。多姿態(tài)人臉識別主要包括三部分:多姿態(tài)人臉檢測、特征提取以及識別。特征提取的好壞從本質(zhì)上決定了識別的準(zhǔn)確率?,F(xiàn)階段常用的人工提取特征方法有:本征臉法、局部特征法和模型法。這些特征提取方法計(jì)算較復(fù)雜,需要人工進(jìn)行特征提取,特征提取過程中的信息損失較大,很難準(zhǔn)確地表達(dá)從底層到高層的特征信息。陳勇等人提出了一種基于gabor特征和深度信念網(wǎng)絡(luò)的近鄰元分析(nca)方法,提取gabor多姿態(tài)人臉圖像的尺度圖并將其進(jìn)行卷積融合,將融合后的直方圖數(shù)據(jù)輸入到深度信念網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,結(jié)合nca分析對訓(xùn)練樣本進(jìn)行線性變化,對多姿態(tài)人臉圖像進(jìn)行分類。趙志國等人采用深度信念網(wǎng)絡(luò)與極限學(xué)習(xí)機(jī)(elm)相結(jié)合進(jìn)行低分辨率多姿態(tài)人臉識別,該方法將低分辨率和對應(yīng)高分辨率圖像作為深層網(wǎng)絡(luò)結(jié)構(gòu)輸入數(shù)據(jù),在整個深度信念網(wǎng)絡(luò)模型頂層加上elm進(jìn)行分類學(xué)習(xí),通過umist人臉庫、orl人臉庫、feret人臉庫,驗(yàn)證了該方法具有識別率高、分類時間短等優(yōu)點(diǎn)。蘇鐵明等人提出了一種基于深度學(xué)習(xí)和融入梯度信息的人臉姿態(tài)分類方法,提取人臉姿態(tài)圖像灰度與灰度差組合特征,通過三層受限玻爾茲曼機(jī)(rbm)進(jìn)行訓(xùn)練學(xué)習(xí),提取姿態(tài)特征,通過softmax分類器建立深度學(xué)習(xí)特征與人臉姿態(tài)標(biāo)簽的對應(yīng)關(guān)系,實(shí)現(xiàn)人臉姿態(tài)分類。尹洪濤等人提出了一種基于離散余弦變換(dct)和線性判別分析的人臉識別方法,對圖像進(jìn)行離散余弦變換求出dct系數(shù),按訓(xùn)練過程中選定的順序選取dct系數(shù),并將選定的dct系數(shù)作為人臉的特征進(jìn)行線性判別分析,獲得識別特征,利用最近鄰分類器對人臉圖像進(jìn)行分類。線性判別分析法是一種有效的特征提取方法,其目的是尋找一個線性變換矩陣v,使得樣本類間離散度和類內(nèi)離散度的比值最大,可以通過fisher準(zhǔn)則實(shí)現(xiàn):式中,wopt是最優(yōu)投影矩陣,v為一個線性變換矩陣,vt為v的轉(zhuǎn)置矩陣,sb是樣本類間離散度矩陣,sw是樣本類內(nèi)離散度矩陣,其中sb為:式中,i為1,...,c,c為類別數(shù),ni為輸入的第i類有限圖像總數(shù),ui表示第i類樣本的均值,u表示所有樣本的均值,但是線性判別分析法存在秩限制問題。上述深度信念網(wǎng)絡(luò)模型具有較好的特征提取能力,但其網(wǎng)絡(luò)模型的最后一個隱層與輸出層之間的初始權(quán)值矩陣通常隨機(jī)生成,這種權(quán)值矩陣映射得到的特征不能保證適合于分類任務(wù)。為了解決該問題,本發(fā)明提出了線性判別深度信念網(wǎng)絡(luò),使用線性判別分析法初始化深度信念網(wǎng)絡(luò)最后一個隱層與輸出層之間的權(quán)值矩陣,使網(wǎng)絡(luò)更適合于分類任務(wù)。本發(fā)明中線性判別分析法重新定義了類間離散度矩陣,解決了傳統(tǒng)線性判別分析法的秩限制問題,使得線性判別深度信念網(wǎng)絡(luò)具有更好的健壯性和適應(yīng)性。技術(shù)實(shí)現(xiàn)要素:本發(fā)明所要解決的主要技術(shù)問題在于克服上述已有技術(shù)的不足,提供一種魯棒性強(qiáng)、識別率高的線性判別深度信念網(wǎng)絡(luò)的多姿態(tài)人臉識別方法。解決上述技術(shù)問題所采用的技術(shù)方案由下述步驟組成:(1)多姿態(tài)人臉圖像預(yù)處理將多姿態(tài)人臉數(shù)據(jù)庫中取出的灰度圖像分為訓(xùn)練圖像和測試圖像,用雙三次插值法進(jìn)行采樣,將每一張采樣圖像轉(zhuǎn)化為一維行向量,每一行向量表示一張圖像;(2)訓(xùn)練深度信念網(wǎng)絡(luò)設(shè)置深度信念網(wǎng)絡(luò)輸入層、隱層、輸出層,輸入層層數(shù)為1層、隱層層數(shù)為2~5層、輸出層層數(shù)為1層,輸入層節(jié)點(diǎn)數(shù)為625,隱層節(jié)點(diǎn)數(shù)為100~400,輸出層節(jié)點(diǎn)數(shù)為5,將訓(xùn)練圖像輸入到深度信念網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,得到網(wǎng)絡(luò)初始參數(shù)空間:θ=(w,b,c)式中w為網(wǎng)絡(luò)的權(quán)值,b為隱層的偏置,c為可視層的偏置;(3)用線性判別分析法初始化權(quán)值矩陣使用線性判別分析法初始化深度信念網(wǎng)絡(luò)最后一個隱層與輸出層之間的權(quán)值矩陣:得到線性判別深度信念網(wǎng)絡(luò),式中wnopt為最優(yōu)投影矩陣,作為深度信念網(wǎng)絡(luò)最后一個隱層與輸出層之間的權(quán)值矩陣,v為一個線性變換矩陣,vt為v的轉(zhuǎn)置矩陣,sb'為樣本類間離散度矩陣,sw是樣本類內(nèi)離散度矩陣,式(1)中的類間離散度矩陣sb'為:式中,i、j為1,...,c,c為人臉姿態(tài)類別數(shù),ni為輸入的第i類有限圖像總數(shù),nj為輸入的第j類有限圖像總數(shù),為第i類中第l個圖像,為第j類中第z個圖像,為的轉(zhuǎn)置,為的轉(zhuǎn)置;(4)線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)采用反向傳播法微調(diào)步驟(3)網(wǎng)絡(luò)的初始參數(shù)θ,使網(wǎng)絡(luò)參數(shù)達(dá)到最優(yōu);(5)多姿態(tài)人臉圖像識別將預(yù)處理后的測試圖像輸入到步驟(4)線性判別深度信念網(wǎng)絡(luò)中,第k個隱層第n個節(jié)點(diǎn)的特征向量由下式得到:式中,n為1,2,...,5,m、k為有限的正整數(shù),dk-1為第k-1個隱層的節(jié)點(diǎn)數(shù),為第k個隱層第n個節(jié)點(diǎn)的偏置,為連接第k-1個隱層第m個節(jié)點(diǎn)和第k個隱層第n個節(jié)點(diǎn)的權(quán)值,為第k-1個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像;輸入測試圖像,在輸出層得到多姿態(tài)人臉識別結(jié)果,由下式表示:式中h為線性判別深度信念網(wǎng)絡(luò)隱層總數(shù),dh為第h個隱層的節(jié)點(diǎn)數(shù),為輸出層第n個節(jié)點(diǎn)的偏置,為連接第h個隱層第m個節(jié)點(diǎn)和輸出層第n個節(jié)點(diǎn)的權(quán)值,為第h個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像,g為輸入圖像的識別結(jié)果,g為1時是正臉或左側(cè)、g為2時是左側(cè)25°或仰頭、g為3時是左側(cè)15°或低頭、g為4時是右側(cè)15°或正臉、g為5時是右側(cè)25°或右側(cè)。在本發(fā)明的步驟(2)中,深度信念網(wǎng)絡(luò)最佳由1個輸入層、3個隱層、1個輸出層構(gòu)成,輸入層的節(jié)點(diǎn)數(shù)最佳為625,3個隱層的節(jié)點(diǎn)數(shù)分別為400、400、200,輸出層的節(jié)點(diǎn)數(shù)為5。本發(fā)明采用了線性判別分析法初始化深度信念網(wǎng)絡(luò)最后一個隱層與輸出層之間的權(quán)值矩陣,完善了深度信念網(wǎng)絡(luò)的分類功能。本發(fā)明中線性判別分析法重新定義了類間離散度矩陣,解決了傳統(tǒng)線性判別分析法的秩限制問題,使得線性判別深度信念網(wǎng)絡(luò)具有更好的健壯性和適應(yīng)性。本發(fā)明具有魯棒性強(qiáng)、識別率高等優(yōu)點(diǎn),所構(gòu)建的線性判別深度信念網(wǎng)絡(luò)適用于多姿態(tài)人臉識別。附圖說明圖1是線性判別深度信念網(wǎng)絡(luò)多姿態(tài)人臉識別流程圖。圖2是feret數(shù)據(jù)庫中部分多姿態(tài)人臉圖像。圖3是cmupie數(shù)據(jù)庫中部分多姿態(tài)人臉圖像。具體實(shí)施方式下面結(jié)合附圖和實(shí)施例對本發(fā)明進(jìn)一步詳細(xì)說明,但本發(fā)明不限于這些實(shí)施例。實(shí)施例1在feret人臉數(shù)據(jù)庫中選取500張多姿態(tài)人臉圖像,如圖2所示,采用matlab2013b軟件進(jìn)行多姿態(tài)人臉圖像識別,如圖1所示,其方法如下:1、多姿態(tài)人臉圖像預(yù)處理從feret人臉數(shù)據(jù)庫中選取100個人,每個人5種姿態(tài)構(gòu)成一個feret多姿態(tài)人臉子庫,5種姿態(tài)依次為:正臉、左側(cè)25°、左側(cè)15°、右側(cè)15°、右側(cè)25°,共500張灰度圖像,選取其中250張作為訓(xùn)練圖像,另外250張作為測試圖像,用雙三次插值法進(jìn)行采樣,采樣人臉圖像大小為25×25像素,將每一張采樣圖像轉(zhuǎn)化為一維行向量,每一行向量表示一張圖像。2、訓(xùn)練深度信念網(wǎng)絡(luò)設(shè)置深度信念網(wǎng)絡(luò)結(jié)構(gòu)為:1個輸入層、3個隱層、1個輸出層,輸入層節(jié)點(diǎn)數(shù)為625,3個隱層的節(jié)點(diǎn)數(shù)分別為400、400、200,輸出層節(jié)點(diǎn)數(shù)為5,將訓(xùn)練圖像輸入到深度信念網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,得到網(wǎng)絡(luò)初始參數(shù)空間:θ=(w,b,c)式中w為網(wǎng)絡(luò)的權(quán)值,b為隱層的偏置,c為可視層的偏置。3、用線性判別分析法初始化權(quán)值矩陣使用線性判別分析法初始化深度信念網(wǎng)絡(luò)最后一個隱層與輸出層之間的權(quán)值矩陣:得到線性判別深度信念網(wǎng)絡(luò),式中wnopt為最優(yōu)投影矩陣,作為深度信念網(wǎng)絡(luò)最后一個隱層與輸出層之間的權(quán)值矩陣,v為一個線性變換矩陣,vt為v的轉(zhuǎn)置矩陣,sb'替換線性判別分析法中的sb,是樣本類間離散度矩陣,sw是樣本類內(nèi)離散度矩陣,式(1)中sb'為:式中,i、j為1,...,c,c為人臉姿態(tài)類別數(shù),ni為輸入的第i類有限圖像總數(shù),nj為輸入的第j類有限圖像總數(shù),為第i類中第l個圖像,為第j類中第z個圖像,為的轉(zhuǎn)置,為的轉(zhuǎn)置。本實(shí)施例中的sb'替換傳統(tǒng)線性判別分析法中的sb,采用了線性判別分析法初始化深度信念網(wǎng)絡(luò)最后一個隱層與輸出層之間的權(quán)值矩陣,完善了深度信念網(wǎng)絡(luò)的分類功能,解決了傳統(tǒng)線性判別分析法的秩限制問題,使得線性判別深度信念網(wǎng)絡(luò)具有更好的健壯性和適應(yīng)性。4、線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)采用反向傳播法微調(diào)步驟3網(wǎng)絡(luò)的初始參數(shù)θ,使網(wǎng)絡(luò)參數(shù)達(dá)到最優(yōu)。5、多姿態(tài)人臉圖像識別將預(yù)處理后的測試圖像輸入到步驟4線性判別深度信念網(wǎng)絡(luò)中,第k個隱層第n個節(jié)點(diǎn)的特征向量由下式得到:式中,n為1,2,...,5,m為有限的正整數(shù),k是隱層的層數(shù)取1,2,3層,dk-1為第k-1個隱層的節(jié)點(diǎn)數(shù),為第k個隱層第n個節(jié)點(diǎn)的偏置,為連接第k-1個隱層第m個節(jié)點(diǎn)和第k個隱層第n個節(jié)點(diǎn)的權(quán)值,為第k-1個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像。輸入測試圖像,在輸出層得到多姿態(tài)人臉識別結(jié)果,由下式表示:式中h為線性判別深度信念網(wǎng)絡(luò)隱層總數(shù),為輸出層第n個節(jié)點(diǎn)的偏置,為連接第3個隱層第m個節(jié)點(diǎn)和輸出層第n個節(jié)點(diǎn)的權(quán)值,為第3個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像,g為輸入圖像的識別結(jié)果。g為1時是正臉、g為2時是左側(cè)25°、g為3時是左側(cè)15°、g為4時是右側(cè)15°、g為5時是右側(cè)25°。采用本實(shí)施例方法對feret多姿態(tài)人臉數(shù)據(jù)子庫中250張測試圖像進(jìn)行識別,各種姿態(tài)的正確識別率見表1。表1實(shí)施例1測試圖像的各姿態(tài)識別率正確圖像個數(shù)錯誤圖像個數(shù)識別率(%)正臉500100.00左側(cè)25°46492.00左側(cè)15°48296.00右側(cè)15°49198.00右側(cè)25°500100.00由表1可見,采用本發(fā)明方法對feret多姿態(tài)人臉數(shù)據(jù)子庫中250張測試圖像進(jìn)行識別,平均識別率達(dá)到97.20%。實(shí)施例2在feret人臉數(shù)據(jù)庫中選取500張多姿態(tài)人臉圖像,如圖2所示,采用matlab2013b軟件進(jìn)行多姿態(tài)人臉圖像識別,如圖1所示,其方法如下:1、多姿態(tài)人臉圖像預(yù)處理多姿態(tài)人臉圖像預(yù)處理步驟與實(shí)施例1相同。2、訓(xùn)練深度信念網(wǎng)絡(luò)設(shè)置深度信念網(wǎng)絡(luò)輸入層、隱層、輸出層,輸入層層數(shù)為1層、隱層層數(shù)為2層、輸出層層數(shù)為1層,輸入層節(jié)點(diǎn)數(shù)為625,2個隱層的節(jié)點(diǎn)數(shù)分別為100、100,輸出層節(jié)點(diǎn)數(shù)為5,將訓(xùn)練圖像輸入到深度信念網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,得到網(wǎng)絡(luò)初始參數(shù)空間:θ=(w,b,c)式中w為網(wǎng)絡(luò)的權(quán)值,b為隱層的偏置,c為可視層的偏置。3、用線性判別分析法初始化權(quán)值矩陣用線性判別分析法初始化權(quán)值矩陣步驟與實(shí)施例1相同。4、線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)步驟與實(shí)施例1相同。5、多姿態(tài)人臉圖像識別將預(yù)處理后的測試圖像輸入到步驟4線性判別深度信念網(wǎng)絡(luò)中,第k個隱層第n個節(jié)點(diǎn)的特征向量由下式得到:式中,n為1,2,...,5,m為有限的正整數(shù),k是隱層的層數(shù)取1,2層,dk-1為第k-1個隱層的節(jié)點(diǎn)數(shù),為第k個隱層第n個節(jié)點(diǎn)的偏置,為連接第k-1個隱層第m個節(jié)點(diǎn)和第k個隱層第n個節(jié)點(diǎn)的權(quán)值,為第k-1個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像。輸入測試圖像,在輸出層得到多姿態(tài)人臉識別結(jié)果,由下式表示:式中h為線性判別深度信念網(wǎng)絡(luò)隱層總數(shù),為輸出層第n個節(jié)點(diǎn)的偏置,為連接第2個隱層第m個節(jié)點(diǎn)和輸出層第n個節(jié)點(diǎn)的權(quán)值,為第2個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像,g為輸入圖像的識別結(jié)果。g為1時是正臉、g為2時是左側(cè)25°、g為3時是左側(cè)15°、g為4時是右側(cè)15°、g為5時是右側(cè)25°。實(shí)施例3在feret人臉數(shù)據(jù)庫中選取500張多姿態(tài)人臉圖像,如圖2所示,采用matlab2013b軟件進(jìn)行多姿態(tài)人臉圖像識別,如圖1所示,其方法如下:1、多姿態(tài)人臉圖像預(yù)處理多姿態(tài)人臉圖像預(yù)處理步驟與實(shí)施例1相同。2、訓(xùn)練深度信念網(wǎng)絡(luò)設(shè)置深度信念網(wǎng)絡(luò)輸入層、隱層、輸出層,輸入層層數(shù)為1層、隱層層數(shù)為5層、輸出層層數(shù)為1層,輸入層節(jié)點(diǎn)數(shù)為625,5個隱層的節(jié)點(diǎn)數(shù)分別為400、400、400、400、400,輸出層節(jié)點(diǎn)數(shù)為5,將訓(xùn)練圖像輸入到深度信念網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,得到網(wǎng)絡(luò)初始參數(shù)空間:θ=(w,b,c)式中w為網(wǎng)絡(luò)的權(quán)值,b為隱層的偏置,c為可視層的偏置。3、用線性判別分析法初始化權(quán)值矩陣用線性判別分析法初始化權(quán)值矩陣步驟與實(shí)施例1相同。4、線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)步驟與實(shí)施例1相同。5、多姿態(tài)人臉圖像識別將預(yù)處理后的測試圖像輸入到步驟4線性判別深度信念網(wǎng)絡(luò)中,第k個隱層第n個節(jié)點(diǎn)的特征向量由下式得到:式中,n為1,2,...,5,m為有限的正整數(shù),k是隱層的層數(shù)取1,2,3,4,5層,dk-1為第k-1個隱層的節(jié)點(diǎn)數(shù),為第k個隱層第n個節(jié)點(diǎn)的偏置,為連接第k-1個隱層第m個節(jié)點(diǎn)和第k個隱層第n個節(jié)點(diǎn)的權(quán)值,為第k-1個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像。輸入測試圖像,在輸出層得到多姿態(tài)人臉識別結(jié)果,由下式表示:式中h為線性判別深度信念網(wǎng)絡(luò)隱層總數(shù),為輸出層第n個節(jié)點(diǎn)的偏置,為連接第5個隱層第m個節(jié)點(diǎn)和輸出層第n個節(jié)點(diǎn)的權(quán)值,為第5個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像,g為輸入圖像的識別結(jié)果。g為1時是正臉、g為2時是左側(cè)25°、g為3時是左側(cè)15°、g為4時是右側(cè)15°、g為5時是右側(cè)25°。實(shí)施例4在cmupie多姿態(tài)人臉數(shù)據(jù)庫中選取340張多姿態(tài)人臉圖像,如圖3所示,采用matlab2013b軟件進(jìn)行多姿態(tài)人臉圖像識別,如圖1所示,其方法如下:1、多姿態(tài)人臉圖像的預(yù)處理cmupie人臉數(shù)據(jù)庫有68個人,每個人選取5種姿態(tài)構(gòu)成一個cmupie多姿態(tài)人臉子庫,5種姿態(tài)依次為:左側(cè)、仰頭、低頭、正臉、右側(cè),共340張灰度圖像,選取其中170張作為訓(xùn)練圖像,另外170張作為測試圖像,用雙三次插值法進(jìn)行采樣,采樣人臉圖像大小為25×25像素,將每一張采樣圖像轉(zhuǎn)化為一維行向量,每一行向量表示一張圖像。2、訓(xùn)練深度信念網(wǎng)絡(luò)訓(xùn)練深度信念網(wǎng)絡(luò)步驟與實(shí)施例1相同。3、用線性判別分析法初始化權(quán)值矩陣用線性判別分析法初始化權(quán)值矩陣步驟與實(shí)施例1相同。4、線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)步驟與實(shí)施例1相同。5、多姿態(tài)人臉圖像識別將預(yù)處理后的測試圖像輸入到步驟4線性判別深度信念網(wǎng)絡(luò)中,第k個隱層第n個節(jié)點(diǎn)的特征向量由下式得到:式中,n為1,2,...,5,m為有限的正整數(shù),k是隱層的層數(shù)取1,2,3層,dk-1為第k-1個隱層的節(jié)點(diǎn)數(shù),為第k個隱層第n個節(jié)點(diǎn)的偏置,為連接第k-1個隱層第m個節(jié)點(diǎn)和第k個隱層第n個節(jié)點(diǎn)的權(quán)值,為第k-1個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像。輸入測試圖像,在輸出層得到多姿態(tài)人臉識別結(jié)果,由下式表示:式中h為線性判別深度信念網(wǎng)絡(luò)隱層總數(shù),為輸出層第n個節(jié)點(diǎn)的偏置,為連接第3個隱層第m個節(jié)點(diǎn)和輸出層第n個節(jié)點(diǎn)的權(quán)值,為第3個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像,g為輸入圖像的識別結(jié)果。g為1時是左側(cè)、g為2時是仰頭、g為3時是低頭、g為4時是正臉、g為5時是右側(cè)。采用本實(shí)施例方法對cmupie多姿態(tài)人臉數(shù)據(jù)子庫中170張測試圖像進(jìn)行識別,各種姿態(tài)的正確識別率見表2。表2實(shí)施例4測試圖像的各姿態(tài)識別率正確圖像個數(shù)錯誤圖像個數(shù)識別率(%)左側(cè)340100.00仰頭29585.30低頭28682.36正臉25973.54右側(cè)32294.12由表2可見,采用本發(fā)明方法對cmupie多姿態(tài)人臉數(shù)據(jù)子庫中170張測試圖像進(jìn)行識別,平均識別率達(dá)到87.06%。實(shí)施例5在cmupie人臉數(shù)據(jù)庫中選取340張多姿態(tài)人臉圖像,如圖3所示,采用matlab2013b軟件進(jìn)行多姿態(tài)人臉圖像識別,如圖1所示,其方法如下:1、多姿態(tài)人臉圖像預(yù)處理多姿態(tài)人臉圖像預(yù)處理步驟與實(shí)施例4相同。2、訓(xùn)練深度信念網(wǎng)絡(luò)訓(xùn)練深度信念網(wǎng)絡(luò)步驟與實(shí)施例2相同。3、用線性判別分析法初始化權(quán)值矩陣用線性判別分析法初始化權(quán)值矩陣步驟與實(shí)施例1相同。4、線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)步驟與實(shí)施例1相同。5、多姿態(tài)人臉圖像識別將預(yù)處理后的測試圖像輸入到步驟4線性判別深度信念網(wǎng)絡(luò)中,第k個隱層第n個節(jié)點(diǎn)的特征向量由下式得到:式中,n為1,2,...,5,m為有限的正整數(shù),k是隱層的層數(shù)取1,2層,dk-1為第k-1個隱層的節(jié)點(diǎn)數(shù),為第k個隱層第n個節(jié)點(diǎn)的偏置,為連接第k-1個隱層第m個節(jié)點(diǎn)和第k個隱層第n個節(jié)點(diǎn)的權(quán)值,為第k-1個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像。輸入測試圖像,在輸出層得到多姿態(tài)人臉識別結(jié)果,由下式表示:式中h為線性判別深度信念網(wǎng)絡(luò)隱層總數(shù),為輸出層第n個節(jié)點(diǎn)偏置,為連接第2個隱層第m個節(jié)點(diǎn)和輸出層第n個節(jié)點(diǎn)的權(quán)值,為第2個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像,g為輸入圖像的識別結(jié)果。g為1時是左側(cè)、g為2時是仰頭、g為3時是低頭、g為4時是正臉、g為5時是右側(cè)。實(shí)施例6在cmupie人臉數(shù)據(jù)庫中選取340張多姿態(tài)人臉圖像,如圖3所示,采用matlab2013b軟件進(jìn)行多姿態(tài)人臉圖像識別,如圖1所示,其方法如下:1、多姿態(tài)人臉圖像預(yù)處理多姿態(tài)人臉圖像預(yù)處理步驟與實(shí)施例4相同。2、訓(xùn)練深度信念網(wǎng)絡(luò)訓(xùn)練深度信念網(wǎng)絡(luò)步驟與實(shí)施例3相同。3、用線性判別分析法初始化權(quán)值矩陣用線性判別分析法初始化權(quán)值矩陣步驟與實(shí)施例1相同。4、線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)線性判別深度信念網(wǎng)絡(luò)參數(shù)調(diào)優(yōu)步驟與實(shí)施例1相同。5、多姿態(tài)人臉圖像識別將預(yù)處理后的測試圖像輸入到步驟4線性判別深度信念網(wǎng)絡(luò)中,第k個隱層第n個節(jié)點(diǎn)的特征向量由下式得到:式中,n為1,2,...,5,m為有限的正整數(shù),k是隱層的層數(shù)取1,2,3,4,5層,dk-1為第k-1個隱層的節(jié)點(diǎn)數(shù),為第k個隱層第n個節(jié)點(diǎn)的偏置,為連接第k-1個隱層第m個節(jié)點(diǎn)和第k個隱層第n個節(jié)點(diǎn)的權(quán)值,為第k-1個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像。輸入測試圖像,在輸出層得到多姿態(tài)人臉識別結(jié)果,由下式表示:式中h為深度信念網(wǎng)絡(luò)隱層總數(shù),為輸出層第n個節(jié)點(diǎn)偏置,為連接第5個隱層第m個節(jié)點(diǎn)和輸出層第n個節(jié)點(diǎn)的權(quán)值,為第5個隱層第m個節(jié)點(diǎn)的特征向量,x為線性判別深度信念網(wǎng)絡(luò)的輸入圖像,g為輸入圖像的識別結(jié)果。g為1時是左側(cè)、g為2時是仰頭、g為3時是低頭、g為4時是正臉、g為5時是右側(cè)。當(dāng)前第1頁12
當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1
锡林郭勒盟| 波密县| 龙山县| 黄山市| 陇西县| 嘉定区| 色达县| 江都市| 海南省| 岳普湖县| 涿州市| 海阳市| 怀化市| 永寿县| 维西| 文化| 托克逊县| 东莞市| 万盛区| 遵义市| 永德县| 墨脱县| 三台县| 永州市| 舞阳县| 盱眙县| 泰来县| 托克托县| 湘西| 黄陵县| 绥阳县| 多伦县| 清丰县| 桦南县| 蓝田县| 桑植县| 侯马市| 县级市| 马鞍山市| 山阴县| 东源县|