两个人的电影免费视频_国产精品久久久久久久久成人_97视频在线观看播放_久久这里只有精品777_亚洲熟女少妇二三区_4438x8成人网亚洲av_内谢国产内射夫妻免费视频_人妻精品久久久久中国字幕

一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的二維人臉識別模型的訓(xùn)練方法與流程

文檔序號:12670430閱讀:5656來源:國知局
一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的二維人臉識別模型的訓(xùn)練方法與流程

本發(fā)明涉及的是一種模式識別中的生物特征識別領(lǐng)域,主要涉及一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的二維人臉識別模型的訓(xùn)練方法。



背景技術(shù):

人臉識別主要用于身份識別,特別是近年來隨著計算機技術(shù)、圖像處理技術(shù)、模式識別技術(shù)等快速進(jìn)步,而出現(xiàn)的一種嶄新的生物特征識別技術(shù)。由于可廣泛應(yīng)用于安全驗證、視頻監(jiān)控、出入口控制等諸多領(lǐng)域,識別速度快、識別率高,因此已經(jīng)成為身份識別技術(shù)研究領(lǐng)域主要的發(fā)展方向

目前主流的人臉識別在需要配合的基礎(chǔ)上獲取人臉圖像,應(yīng)用分類算法進(jìn)行人臉識別。主要有以下幾類方法:(1)基于幾何特征的方法:檢測臉部器官如眼睛、眉毛、鼻子、嘴巴和下巴等,利用各個器官的位置、大小及相互之間的空間分布關(guān)系來識別人臉;(2)基于子空間的方法:將人臉圖像經(jīng)過投影變換投射至子空間中,由于投影變換具有非正交、非線性的特性,因此子空間中的人臉表示更具分辨力;(3)基于局部特征的方法:利用各類局部算子計算出相應(yīng)的人臉圖像,通過統(tǒng)計其直方圖,利用直方圖信息進(jìn)行識別。

這些方式在實際監(jiān)控時,容易受到光線變化、背景、姿態(tài)等諸多因素的干擾,使得提取的特征在以上外界因素發(fā)生變化時,導(dǎo)致原始圖像出現(xiàn)結(jié)構(gòu)丟失、特征描述不全面和不確定等問題,這些缺陷導(dǎo)致人臉識別率低,可靠性差,無法進(jìn)行大面積推廣等。因此在實際監(jiān)控惡劣的環(huán)境下實現(xiàn)準(zhǔn)確快速的人臉識別技術(shù)成為當(dāng)前具有挑戰(zhàn)性的問題。



技術(shù)實現(xiàn)要素:

本發(fā)明的目的在于克服現(xiàn)有技術(shù)的不足,提供了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的二維人臉識別模型的訓(xùn)練方法,以解決在光線、背景、姿態(tài)等諸多因素的干擾下,人臉識別率低、可靠性差等技術(shù)問題。

本發(fā)明是通過以下技術(shù)方案實現(xiàn)的:

本發(fā)明提供了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的二維人臉識別模型的訓(xùn)練方法,包括以下步驟:

步驟S1:采集人臉圖像樣本,采用基于Haar特征的Adaboost算法得到樣本圖像中的人臉區(qū)域;

步驟S2:將樣本圖像中的人臉區(qū)域進(jìn)行定比例擴展,然后截取部分人臉區(qū)域的圖像,縮放后通過灰度處理獲得灰度圖像;

步驟S3:構(gòu)建初步的人臉卷積神經(jīng)網(wǎng)絡(luò)模型,將灰度圖像輸入人臉卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到全連接層的人臉高層次特征值,根據(jù)該特征值與其理想值的差距,調(diào)整模型的權(quán)值矩陣,獲得訓(xùn)練后的人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型;

步驟S4:對特征值進(jìn)行L2范數(shù)歸一化,獲得人臉圖像的特征表示;

步驟S5:從樣本中隨機選擇某個人的灰度圖像作為錨點,選擇該人其它圖像生成的特征值與錨點之間的距離最大的一張灰度圖像作為正樣本,選擇其他人圖像生成的特征值與錨點之間的距離最小的一張灰度圖像作為負(fù)樣本,構(gòu)建獲得由錨點、正樣本和負(fù)樣本組成的三元組;利用目標(biāo)函數(shù)進(jìn)行篩選,選擇不滿足目標(biāo)函數(shù)的三元組為最難區(qū)分三元組;

步驟S6:精調(diào)卷積神經(jīng)網(wǎng)絡(luò)模型:將選取的最難區(qū)分三元組輸入人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練、精調(diào),再次獲得相應(yīng)的特征值,重復(fù)步驟S4-S5,利用上一輪訓(xùn)練好的人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型,進(jìn)行下一輪最難三元組選擇和訓(xùn)練,通過最后生成的特征值計算待測人臉圖像的歐式距離,將歐式距離與設(shè)定閾值比較,判斷是否為同一人,從而獲取人臉識別的正確率和誤識率;

步驟S7:多次迭代優(yōu)化直到人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型收斂,直至迭代收斂,即人臉識別的正確率的評價標(biāo)準(zhǔn)達(dá)到最高值,獲得最終用于識別的人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練結(jié)束。

進(jìn)一步地,所述步驟S3的步驟包括:

步驟S301:構(gòu)建共有22層的深度卷積神經(jīng)網(wǎng)絡(luò),每層的各個神經(jīng)元的初始權(quán)值、參數(shù)全部通過隨機函數(shù)生成,大小為正負(fù)1之間,每層采用的卷積核分別為1、3、5,卷積步長為1,卷積間隔為0、1、2,同時網(wǎng)絡(luò)中每層數(shù)據(jù)使用3×3的矩陣池化,完成初步構(gòu)建;

步驟S302:前向傳播:將灰度圖像輸入到深度卷積神經(jīng)網(wǎng)絡(luò)里面,通過整個網(wǎng)絡(luò)一步步收斂,使維度一層層降低,最后輸出128維的人臉高層次特征值Op;

步驟S303:反向傳播:計算Op與相應(yīng)的理想輸出值Yp的差,按極小化誤差的方法調(diào)整權(quán)值矩陣,獲得訓(xùn)練后的人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型。

進(jìn)一步地,所述步驟S5中,目標(biāo)函數(shù)的公式為:

式中,表示錨點的特征表示,表示正樣本的特征表示,表示負(fù)樣本的特征表示,a代表兩者距離之間的最小間隔,L代表三元組損失,三元組選擇即選擇損失大于零的情況。

本發(fā)明相比現(xiàn)有技術(shù)具有以下優(yōu)點:本發(fā)明提供了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的二維人臉識別模型的訓(xùn)練方法,有效利用了大規(guī)模的人臉圖像及表情姿態(tài)各異的人臉圖像,提出了一種可用于二維人臉識別模型訓(xùn)練的有效方法,通過迭代優(yōu)化的方式能夠有效的學(xué)到精準(zhǔn)的特征表達(dá),提升了人臉比對的精度,只要有足夠的樣本圖像和迭代次數(shù),就可以得到在該樣本集上最優(yōu)的模型。

附圖說明

圖1為基于深度卷積神經(jīng)網(wǎng)絡(luò)的二維人臉識別模型的訓(xùn)練方法的步驟流程圖;

圖2為深度卷積神經(jīng)網(wǎng)絡(luò)的基本框架圖。

具體實施方式

下面對本發(fā)明的實施例作詳細(xì)說明,本實施例在以本發(fā)明技術(shù)方案為前提下進(jìn)行實施,給出了詳細(xì)的實施方式和具體的操作過程,但本發(fā)明的保護(hù)范圍不限于下述的實施例。

實施例1

本實施例提供了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的二維人臉識別模型的訓(xùn)練方法,如圖1所示,包括以下步驟:

步驟S1:人臉樣本的采集:在采集人臉樣本時,人臉和攝像頭的距離為30-60厘米,目光直視攝像頭,保持表情自然,并慢慢的前后左右移動,過程中可以流露出多種表情,姿態(tài)。每隔2秒獲取一張人臉圖像,每人截取10張。然后應(yīng)用人臉檢測算法Haar特征與Adaboost對圖像進(jìn)行檢測,檢測結(jié)果顯示包含人臉圖像的作為可用樣本。

步驟S2:將樣本圖像中的人臉區(qū)域進(jìn)行定比例擴展,然后截取部分人臉區(qū)域的圖像,再通過縮放將截取部分的圖像變換到224×224像素大小,最后通過灰度計算獲得灰度圖像。

步驟S3:構(gòu)建初步的人臉卷積神經(jīng)網(wǎng)絡(luò)模型,將灰度圖像輸入人臉卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到全連接層的人臉高層次特征值,根據(jù)該特征值與其理想值的差距,調(diào)整模型的權(quán)值矩陣,獲得訓(xùn)練后的人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型,具體為:

步驟S301:構(gòu)建共有22層的深度卷積神經(jīng)網(wǎng)絡(luò),每層的各個神經(jīng)元的初始權(quán)值、參數(shù)全部通過隨機函數(shù)生成,大小為正負(fù)1之間,每層采用的卷積核分別為1、3、5,卷積步長為1,卷積間隔為0、1、2,同時網(wǎng)絡(luò)中每層數(shù)據(jù)使用3×3的矩陣池化,完成初步構(gòu)建,本實施例中使用的網(wǎng)絡(luò)的最基本框架如圖2所示;采用不同大小的卷積核是為了最后拼接時不同尺度特征的融合,之所以卷積核大小采用1、3和5,主要是為了方便對齊。設(shè)定卷積步長為1之后,只要分別設(shè)定間隔為0、1、2,那么卷積之后便可以得到相同維度的特征,然后這些特征就可以直接拼接在一起了;同時結(jié)構(gòu)里面也嵌入了最大池,可以將計算并行化,加快訓(xùn)練速度。

步驟S302:前向傳播:將灰度圖像輸入到深度卷積神經(jīng)網(wǎng)絡(luò)里面,通過整個網(wǎng)絡(luò)一步步收斂,使維度一層層降低,最后輸出128維的人臉高層次特征值Op,具體步驟包括:

a)由采集到的人臉樣本,根據(jù)不同的表情、姿態(tài)將樣本共分為6類訓(xùn)練樣本,從各類樣本集中取一個樣本X,將X輸入網(wǎng)絡(luò);

b)輸入的樣本經(jīng)過逐級的變換,傳送到輸出層,在此過程中,通過如下方式計算出實際輸出Op:即每一層的卷積核覆蓋在輸入樣本X上,對應(yīng)位置求卷積再求和,得到一個值并賦值給輸出對應(yīng)的位置,每次卷積核在X上移動一個位置,從上到下、從左到右交疊覆蓋一遍后得到輸出矩陣,此輸出矩陣進(jìn)行降采樣操作,然后將結(jié)果再作為下一層的輸入,通過這種逐級變換,最終求得實際輸出。

步驟S303:反向傳播:計算Op與相應(yīng)的理想輸出值Yp的差,按極小化誤差的方法調(diào)整權(quán)值矩陣,獲得訓(xùn)練后的人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型,具體步驟包括:

I)通過公式E=1/2∑k(ok-tk)2,計算訓(xùn)練樣本X在輸出層的誤差,k表示該層第k個神經(jīng)元。

Ⅱ)根據(jù)I)中列舉的公式,計算E關(guān)于n、n+1層第i個神經(jīng)元的偏導(dǎo)數(shù)。

Ⅲ)計算誤差E關(guān)于n+1層第i個神經(jīng)元的增益系數(shù)的偏導(dǎo)數(shù)、偏置的偏導(dǎo)數(shù),并根據(jù)計算結(jié)果,調(diào)整增益系數(shù)與偏置。

Ⅳ)計算誤差E關(guān)于卷積核權(quán)值的偏導(dǎo)數(shù)和偏置的偏導(dǎo)數(shù),并根據(jù)結(jié)果調(diào)整模型的權(quán)值和偏置,獲得訓(xùn)練后模型。

步驟S4:對這些特征值進(jìn)行L2歸一化,這樣,所有圖像的特征都會被映射到一個超球面上,要使特征值歸一化到單位L2范數(shù),即建立一個從x到x’的映射,使得x’的L2范數(shù)為1,滿足公式所以x’=xf(i)。

步驟S5:從樣本中隨機選擇某個人的灰度圖像作為錨點,選擇該人其它圖像生成的特征值與錨點之間的距離最大的一張灰度圖像作為正樣本,選擇其他人圖像生成的特征值與錨點之間的距離最小的一張灰度圖像作為負(fù)樣本,構(gòu)建獲得由錨點、正樣本和負(fù)樣本組成的三元組;利用目標(biāo)函數(shù)進(jìn)行篩選,選擇不滿足目標(biāo)函數(shù)的三元組為最難區(qū)分三元組,所述目標(biāo)函數(shù)為;

式中,表示錨點的特征表示,表示正樣本的特征表示,表示負(fù)樣本的特征表示,a代表兩者距離之間的最小間隔,L代表三元組損失,三元組選擇即選擇損失大于零的情況。

步驟S6:精調(diào)卷積神經(jīng)網(wǎng)絡(luò)模型:將選取的最難區(qū)分三元組輸入人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練、精調(diào),再次獲得相應(yīng)的特征值,重復(fù)步驟S4-S5,利用上一輪訓(xùn)練好的人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型,進(jìn)行下一輪最難三元組選擇和訓(xùn)練,通過最后生成的特征值計算待測人臉圖像的歐式距離,將歐式距離與設(shè)定閾值比較,判斷是否為同一人,從而獲取人臉識別的正確率和誤識率;

步驟S7:多次迭代優(yōu)化直到人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型收斂,直至迭代收斂,即人臉識別的正確率的評價標(biāo)準(zhǔn)達(dá)到最高值,獲得最終用于識別的人臉識別卷積神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練結(jié)束。

本發(fā)明與傳統(tǒng)的訓(xùn)練方法相比,傳統(tǒng)訓(xùn)練方法沒有三元組的選擇,而是使用softmax進(jìn)行分類學(xué)習(xí),然后抽取其中某一層作為特征,這樣的話提取的特征值維數(shù)就非常多,不多則精度不夠,那么使用這種方式進(jìn)行人臉識就需要額外的工作。而本發(fā)明的模型訓(xùn)練方法,省去了softmax這一步,用三元組選擇替代,直接端對端進(jìn)行學(xué)習(xí),快速收斂,最后獲取的特征值128位就可以表達(dá)整個圖片,通過計算特征值的距離進(jìn)行人臉識別,并且本訓(xùn)練方法,通過對采集的人臉圖像進(jìn)行分類,識別結(jié)果不受表情、姿態(tài)的影響,大大提高了識別的準(zhǔn)確率。

以上為本發(fā)明一種詳細(xì)的實施方式和具體的操作過程,是以本發(fā)明技術(shù)方案為前提下進(jìn)行實施,但本發(fā)明的保護(hù)范圍不限于上述的實施例。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
罗江县| 辽宁省| 龙岩市| 西宁市| 山丹县| 聂拉木县| 夏邑县| 神池县| 赤峰市| 腾冲县| 西林县| 调兵山市| 郧西县| 岗巴县| 象山县| 响水县| 鸡西市| 田阳县| 犍为县| 林西县| 五峰| 阿鲁科尔沁旗| 凤凰县| 霞浦县| 蕲春县| 鸡西市| 凌源市| 贵州省| 亳州市| 信阳市| 天柱县| 当阳市| 玉山县| 瑞丽市| 蓬安县| 邯郸县| 辽源市| 子长县| 个旧市| 久治县| 增城市|