本發(fā)明涉及人臉識別技術(shù)領(lǐng)域,尤其涉及一種基于深度學(xué)習(xí)的機器人識別用戶身份的方法和裝置。
背景技術(shù):
隨著科學(xué)技術(shù)的高速發(fā)展,機器人制造技術(shù)也得以發(fā)展迅速,機器人的應(yīng)用已逐步進(jìn)入家庭服務(wù)行業(yè)。
物業(yè)服務(wù)機器人是一種不受環(huán)境、溫度的影響,能夠動態(tài)地實現(xiàn)對用戶身份識別的機器人,該類機器人需要在用戶身份識別方面有卓越的辨識能力。
因此,如何提高機器人識別用戶身份的識別率、正確率非常關(guān)鍵。
技術(shù)實現(xiàn)要素:
有鑒于此,本發(fā)明提供一種識別用戶身份的方法和裝置,以提高機器人識別用戶身份的識別率、正確率。技術(shù)方案如下:
基于本發(fā)明的一方面,本發(fā)明提供一種識別用戶身份的方法,包括:
檢測人臉圖片;
將所述人臉圖片輸入至人臉識別模型,利用所述人臉識別模型計算得到所述人臉圖片的深度特征向量;
計算所述深度特征向量分別與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量之間的距離值,所述預(yù)存的深度特征向量組包括多個預(yù)存深度特征向量,所述預(yù)存深度特征向量與用戶身份信息一一對應(yīng);
確定出距離值最小時對應(yīng)的目標(biāo)預(yù)存深度特征向量;
確定所述目標(biāo)預(yù)存深度特征向量對應(yīng)的用戶身份信息為所述人臉圖片中用戶的身份。
優(yōu)選地,所述人臉識別模型為深度卷積神經(jīng)網(wǎng)絡(luò)Deep CNN人臉識別模型。
優(yōu)選地,所述檢測人臉圖片之前,所述方法還包括:
基于大量的人臉數(shù)據(jù),采用前向傳播和后向傳播的方法來訓(xùn)練所述大量的人臉數(shù)據(jù),以得到所述Deep CNN人臉識別模型。
優(yōu)選地,所述計算所述深度特征向量分別與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量之間的距離值包括:
采用最臨近KNN最近距離算法計算所述深度特征向量分別與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量之間的距離值。
基于本發(fā)明的另一方面,本發(fā)明還提供一種識別用戶身份的裝置,包括:
圖片檢測單元,用于檢測人臉圖片;
圖片處理單元,用于將所述人臉圖片輸入至預(yù)設(shè)的人臉識別模型,利用所述人臉識別模型計算得到所述人臉圖片的深度特征向量;
距離計算單元,用于計算所述深度特征向量分別與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量之間的距離值,所述預(yù)存的深度特征向量組包括多個預(yù)存深度特征向量,所述預(yù)存深度特征向量與用戶身份信息一一對應(yīng);
第一確定單元,用于確定出距離值最小時對應(yīng)的目標(biāo)預(yù)存深度特征向量;
第二確定單元,用于確定所述目標(biāo)預(yù)存深度特征向量對應(yīng)的用戶身份信息為所述人臉圖片中用戶的身份。
優(yōu)選地,所述人臉識別模型為深度卷積神經(jīng)網(wǎng)絡(luò)Deep CNN人臉識別模型。
優(yōu)選地,還包括:
模型訓(xùn)練單元,用于基于大量的人臉數(shù)據(jù),采用前向傳播和后向傳播的方法來訓(xùn)練所述大量的人臉數(shù)據(jù),以得到所述Deep CNN人臉識別模型。
優(yōu)選地,所述距離計算單元具體用于,采用最臨近KNN最近距離算法計算所述深度特征向量分別與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量之間的距離值。
本發(fā)明提供的識別用戶身份的方法包括:檢測人臉圖片;將所述人臉圖片輸入至預(yù)設(shè)的人臉識別模型,利用所述人臉識別模型計算得到所述人臉圖片的深度特征向量;計算所述深度特征向量分別與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量之間的距離值,所述預(yù)存的深度特征向量組包括多個預(yù)存深度特征向量,所述預(yù)存深度特征向量與用戶身份信息一一對應(yīng);確定出距離值最小時對應(yīng)的目標(biāo)預(yù)存深度特征向量;確定所述目標(biāo)預(yù)存深度特征向量對應(yīng)的用戶身份信息為所述人臉圖片中用戶的身份。本發(fā)明利用人臉識別模型計算得到人臉圖片的深度特征向量,進(jìn)而通過計算深度特征向量與各預(yù)存深度特征向量間的距離值,確定出距離值最小時對應(yīng)的目標(biāo)預(yù)存深度特征向量,將該目標(biāo)預(yù)存深度特征向量對應(yīng)的用戶身份信息為所述人臉圖片中用戶的身份,本發(fā)明提高了機器人識別用戶身份的識別率、正確率。
附圖說明
為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)提供的附圖獲得其他的附圖。
圖1為本發(fā)明提供的一種識別用戶身份的方法的流程圖;
圖2為本發(fā)明提供的一種識別用戶身份的裝置的結(jié)構(gòu)示意圖。
具體實施方式
下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護(hù)的范圍。
請參閱圖1,其示出了本發(fā)明提供的一種識別用戶身份的方法的流程圖,包括:
步驟101,檢測人臉圖片。
其中,人臉圖片指的是包括人臉信息的圖片。一般的,本發(fā)明可以利用攝像頭等攝像裝置捕捉人臉圖片,當(dāng)攝像裝置捕捉到人臉圖片后,本發(fā)明可以從攝像裝置處主動獲取或被動接收到所述人臉圖片。
步驟102,將所述人臉圖片輸入至人臉識別模型,利用所述人臉識別模型計算得到所述人臉圖片的深度特征向量。
本發(fā)明中,人臉識別模型具體為Deep CNN(Deep Convolutional Neural Networks,深度卷積神經(jīng)網(wǎng)絡(luò))人臉識別模型。
特別的,在實現(xiàn)本發(fā)明步驟101前還應(yīng)包括:步驟100,基于大量的人臉數(shù)據(jù),采用前向傳播(Forward Propagation)和后向傳播(Back Propagation)的方法來訓(xùn)練所述大量的人臉數(shù)據(jù),以得到所述Deep CNN人臉識別模型。
本發(fā)明中的Deep CNN人臉識別模型為基于多層CNN(>10層)架構(gòu)的百萬級參數(shù)的Deep CNN人臉識別模型,該Deep CNN人臉識別模型的基礎(chǔ)為深度卷積神經(jīng)網(wǎng)絡(luò),該深度卷積神經(jīng)網(wǎng)絡(luò)具有37層,包括16個卷積層,且在該網(wǎng)絡(luò)中包括百萬級的參數(shù)。其中該網(wǎng)絡(luò)中包括的百萬級的參數(shù)必須通過大量標(biāo)定好的人臉圖(幾十萬人臉級別)不斷迭待監(jiān)督訓(xùn)練學(xué)習(xí)(supervised learning),調(diào)整模型參數(shù)值以達(dá)到訓(xùn)練數(shù)據(jù)庫人臉識別率最小化。
為了使模型參數(shù)能夠更好地區(qū)分不同地域的不同人臉,例如亞洲人臉,訓(xùn)練樣本集中需要收集大量的亞洲人臉數(shù)據(jù),通過對收集的大量的亞洲人臉數(shù)據(jù)的訓(xùn)練,才能保證得到的最深層的深度特征向量具有很強的區(qū)分不同人臉的能力。
具體在本發(fā)明實施例中,首先需要設(shè)定好Deep CNN人臉識別模型的結(jié)構(gòu),即本發(fā)明采用多層的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),包括卷積層、pooling層、relu層、全連接層、softmax分類以及triploss層。訓(xùn)練過程中是訓(xùn)練卷積層核函數(shù)、全連接層鏈接權(quán)、softmax分類層以及triplet loss層的參數(shù)。在本發(fā)明實際應(yīng)用過程中,以歸一化之后的人臉照片數(shù)據(jù)作為輸入數(shù)據(jù),以對應(yīng)的人臉的標(biāo)定數(shù)據(jù)作為輸出,以softmax損失函數(shù)為目標(biāo)函數(shù)。具體如,將人臉圖片的檢測結(jié)果經(jīng)過校準(zhǔn)之后歸一化到224×224,輸入到Deep CNN人臉識別模型后便可得到一深度特征向量。
步驟103,計算所述深度特征向量分別與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量之間的距離值。
其中,所述預(yù)存的深度特征向量組包括多個預(yù)存深度特征向量,所述預(yù)存深度特征向量與用戶身份信息一一對應(yīng)。
在本發(fā)明實際應(yīng)用過程中,每一名用戶的人臉對應(yīng)一個深度特征向量,本發(fā)明可以將每個用戶對應(yīng)的深度特征向量預(yù)存在深度特征向量組中,因此本發(fā)明中的深度特征向量組中包括上千維的深度特征向量。
具體的,本發(fā)明可以采用KNN(k-Nearest Neighbor,最臨近)最近距離算法,依次計算所述深度特征向量分別與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量之間的距離值。KNN為經(jīng)典的分類算法:輸入樣本的分類由其最近K個鄰居分類的“多數(shù)表決”確定。當(dāng)K=1時,樣本的分類即賦為其最近鄰居的分類。
本發(fā)明中,經(jīng)過大量數(shù)據(jù)監(jiān)督訓(xùn)練,同一人的人臉圖片的深度特征向量之間的距離(如歐式距離)比不同人的人臉圖片之間的距離近,即同一人的人臉圖片的深度特征向量之間的距離值會最小。因此本發(fā)明將計算得到的人臉圖片的深度特征向量與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量一一匹配計算距離值。
步驟104,確定出距離值最小時對應(yīng)的目標(biāo)預(yù)存深度特征向量。
步驟105,確定所述目標(biāo)預(yù)存深度特征向量對應(yīng)的用戶身份信息為所述人臉圖片中用戶的身份。
因此應(yīng)用本發(fā)明提供的識別用戶身份的方法,通過利用人臉識別模型計算得到人臉圖片的深度特征向量,進(jìn)而通過計算深度特征向量與各預(yù)存深度特征向量間的距離值,確定出距離值最小時對應(yīng)的目標(biāo)預(yù)存深度特征向量,將該目標(biāo)預(yù)存深度特征向量對應(yīng)的用戶身份信息為所述人臉圖片中用戶的身份,本發(fā)明提高了機器人識別用戶身份的識別率、正確率。
基于前文本發(fā)明提供的一種識別用戶身份的方法,本發(fā)明還提供一種識別用戶身份的裝置,如圖2所示,包括:
圖片檢測單元100,用于檢測人臉圖片;
圖片處理單元200,用于將所述人臉圖片輸入至預(yù)設(shè)的人臉識別模型,利用所述人臉識別模型計算得到所述人臉圖片的深度特征向量;
距離計算單元300,用于計算所述深度特征向量分別與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量之間的距離值,所述預(yù)存的深度特征向量組包括多個預(yù)存深度特征向量,所述預(yù)存深度特征向量與用戶身份信息一一對應(yīng);
第一確定單元400,用于確定出距離值最小時對應(yīng)的目標(biāo)預(yù)存深度特征向量;
第二確定單元500,用于確定所述目標(biāo)預(yù)存深度特征向量對應(yīng)的用戶身份信息為所述人臉圖片中用戶的身份。
其中,所述人臉識別模型為Deep CNN人臉識別模型。
所述裝置還包括:
模型訓(xùn)練單元600,用于基于大量的人臉數(shù)據(jù),采用前向傳播和后向傳播的方法來訓(xùn)練所述大量的人臉數(shù)據(jù),以得到所述Deep CNN人臉識別模型。
所述距離計算單元300具體用于,采用KNN最近距離算法計算所述深度特征向量分別與預(yù)存的深度特征向量組中的每個預(yù)存深度特征向量之間的距離值。
需要說明的是,本說明書中的各個實施例均采用遞進(jìn)的方式描述,每個實施例重點說明的都是與其他實施例的不同之處,各個實施例之間相同相似的部分互相參見即可。對于裝置類實施例而言,由于其與方法實施例基本相似,所以描述的比較簡單,相關(guān)之處參見方法實施例的部分說明即可。
最后,還需要說明的是,在本文中,諸如第一和第二等之類的關(guān)系術(shù)語僅僅用來將一個實體或者操作與另一個實體或操作區(qū)分開來,而不一定要求或者暗示這些實體或操作之間存在任何這種實際的關(guān)系或者順序。而且,術(shù)語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者設(shè)備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者設(shè)備所固有的要素。在沒有更多限制的情況下,由語句“包括一個……”限定的要素,并不排除在包括所述要素的過程、方法、物品或者設(shè)備中還存在另外的相同要素。
以上對本發(fā)明所提供的一種識別用戶身份的方法和裝置進(jìn)行了詳細(xì)介紹,本文中應(yīng)用了具體個例對本發(fā)明的原理及實施方式進(jìn)行了闡述,以上實施例的說明只是用于幫助理解本發(fā)明的方法及其核心思想;同時,對于本領(lǐng)域的一般技術(shù)人員,依據(jù)本發(fā)明的思想,在具體實施方式及應(yīng)用范圍上均會有改變之處,綜上所述,本說明書內(nèi)容不應(yīng)理解為對本發(fā)明的限制。