本發(fā)明涉及人臉識別技術領域,特別是涉及一種人臉定位方法及系統(tǒng)。
背景技術:
目前,人臉識別技術是一個非?;钴S的研究領域,它覆蓋了數(shù)字圖像處理、模式識別、計算機視覺、神經(jīng)網(wǎng)絡、心理學、生理學、數(shù)學等諸多學科的內容。隨著計算機技術和光學技術的不斷發(fā)展,人臉識別技術被越來越多的應用于人們的工作和生活中。例如,人臉識別考勤系統(tǒng)、人臉識別門禁系統(tǒng)、人臉識別攝像辦證系統(tǒng),以及加載于電子產(chǎn)品的眾多app,如美圖秀秀、美顏相機、甚至刷臉開戶等。盡管人臉識別技術的應用已非常廣泛,但是如何對人臉進行準確定位,提高人臉識別的精度和準確度仍是人臉識別技術需要迫切解決的問題。
人臉識別時,尤其是對幼兒的人臉識別,由于幼兒好運動的特性,識別時的關鍵點定位相對困難,且識別的距離無法固定,加之攝像設備本身分辨率因素的影響,使得對幼兒人臉的識別定位相對困難,因此識別定位的準確性較低。
技術實現(xiàn)要素:
本發(fā)明的目的是提供一種人臉定位方法及系統(tǒng),以實現(xiàn)提高人臉定位的準確性。
為解決上述技術問題,本發(fā)明提供一種人臉定位方法,包括:
通過課桌上的攝像頭拍攝學生的人臉圖像;
檢測人臉圖像中的人臉位置;當檢測到人臉位置后,依據(jù)預設的人臉關鍵點模型獲取人臉的狀態(tài)信息,確定人臉關鍵點。
優(yōu)選的,所述檢測人臉圖像中的人臉位置,包括:
獲取第一幀人臉圖像,將導入人臉的特征模板進行全圖搜索,生成多個圖像特征;依據(jù)圖像特征生成強分類器,利用回歸串聯(lián)校正模型搜索到人臉位置。
優(yōu)選的,所述檢測人臉圖像中的人臉位置之前,還包括:
計算學生人臉與攝像頭之間的空間幾何距離,利用空間幾何距離計算濾波器的尺度。
優(yōu)選的,所述依據(jù)預設的人臉關鍵點模型獲取人臉的狀態(tài)信息之前,還包括:
保存檢測到的人臉位置,將人臉的整體位置信息作為人臉關鍵點定位的初始化信息。
本發(fā)明還提供一種人臉定位系統(tǒng),用于實現(xiàn)上述方法,包括:
攝像頭,用于拍攝學生的人臉圖像;
數(shù)據(jù)處理中心,用于檢測人臉圖像中的人臉位置;當檢測到人臉位置后,依據(jù)預設的人臉關鍵點模型獲取人臉的狀態(tài)信息,確定人臉關鍵點。
優(yōu)選的,數(shù)據(jù)處理中心包括:
搜索模塊,用于獲取第一幀人臉圖像,將導入人臉的特征模板進行全圖搜索,生成多個圖像特征;依據(jù)圖像特征生成強分類器,利用回歸串聯(lián)校正模型搜索到人臉位置;
定位模塊,用于當檢測到人臉位置后,依據(jù)預設的人臉關鍵點模型獲取人臉的狀態(tài)信息,確定人臉關鍵點。
優(yōu)選的,所述數(shù)據(jù)處理中心還包括:
計算模塊,用于計算學生人臉與攝像頭之間的空間幾何距離,利用空間幾何距離計算濾波器的尺度。
優(yōu)選的,所述數(shù)據(jù)處理中心還包括:
保存模塊,用于保存檢測到的人臉位置,將人臉的整體位置信息作為人臉關鍵點定位的初始化信息。
本發(fā)明所提供的一種人臉定位方法及系統(tǒng),通過課桌上的攝像頭拍攝學生的人臉圖像;檢測人臉圖像中的人臉位置;當檢測到人臉位置后,依據(jù)預設的人臉關鍵點模型獲取人臉的狀態(tài)信息,確定人臉關鍵點。可見,通過課桌上的攝像頭拍攝學生的人臉信息,并檢測圖像中的人臉位置,當檢測到了人臉位置后,根據(jù)預先定義好的人臉關鍵點模型完成定位,實時估測人臉的狀態(tài)信息,通過狀態(tài)信息確定人臉關鍵點,提高人臉定位的準確性。
附圖說明
為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術中的技術方案,下面將對實施例或現(xiàn)有技術描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的實施例,對于本領域普通技術人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)提供的附圖獲得其他的附圖。
圖1為本發(fā)明所提供的一種人臉定位方法的流程圖;
圖2為兒童人臉定位分析算法簡要流程圖;
圖3為本發(fā)明所提供的一種人臉定位系統(tǒng)的結構示意圖。
具體實施方式
本發(fā)明的核心是提供一種人臉定位方法及系統(tǒng),以實現(xiàn)提高人臉定位的準確性。
為了使本技術領域的人員更好地理解本發(fā)明方案,下面將結合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例。基于本發(fā)明中的實施例,本領域普通技術人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。
請參考圖1,圖1為本發(fā)明所提供的一種人臉定位方法的流程圖,該方法包括:
s11:通過課桌上的攝像頭拍攝學生的人臉圖像;
s12:檢測人臉圖像中的人臉位置;當檢測到人臉位置后,依據(jù)預設的人臉關鍵點模型獲取人臉的狀態(tài)信息,確定人臉關鍵點。
可見,該方法通過課桌上的攝像頭拍攝學生的人臉信息,并檢測圖像中的人臉位置,當檢測到了人臉位置后,根據(jù)預先定義好的人臉關鍵點模型完成定位,實時估測人臉的狀態(tài)信息,通過狀態(tài)信息確定人臉關鍵點,提高人臉定位的準確性。
基于上述方法,進一步的,步驟s12中,檢測人臉圖像中的人臉位置的過程具體為:獲取第一幀人臉圖像,將導入人臉的特征模板進行全圖搜索,生成多個圖像特征;依據(jù)圖像特征生成強分類器,利用回歸串聯(lián)校正模型搜索到人臉位置。
進一步的,步驟s12中,檢測人臉圖像中的人臉位置之前,還包括:計算學生人臉與攝像頭之間的空間幾何距離,利用空間幾何距離計算濾波器的尺度。
進一步的,步驟s12中,依據(jù)預設的人臉關鍵點模型獲取人臉的狀態(tài)信息之前,還包括:保存檢測到的人臉位置,將人臉的整體位置信息作為人臉關鍵點定位的初始化信息。
詳細的,本方法就是一種人臉定位算法,課堂教學開始后,人臉定位算法與課程教案同步啟動,然后通過課桌上的攝像頭拍攝學生的人臉信息,并檢測圖像中的人臉位置。當檢測到了人臉位置后,算法根據(jù)預先定義好的人臉關鍵點模型完成定位,實時估測人臉的狀態(tài)信息,通過人臉關鍵點的變化來完成對幼兒人臉的準確定位。
圖2為兒童人臉定位分析算法簡要流程圖,基于本方法,具體實施過程如下:
步驟1:設置在課桌上的攝像頭與課程智能ppt同時啟動,并將采集到人臉信息、視頻信息傳送到信息處理中心;
步驟2:信息處理中心利用根據(jù)智能座椅的位置算出人臉與攝像頭的空間幾何距離,設計實現(xiàn)尺度濾波器。根據(jù)3-6歲兒童的人臉長度l,濾波器的尺度計算為:
其中,f為攝像頭的焦距,d為攝像頭到幼兒位置的距離;
步驟3:在第一幀圖像到達時,將導入人臉的特征模板(四個haar特征)進行全圖搜索;其中,模板中的將灰色矩陣中的灰度值與白色矩陣中的灰度值相減,生成大量的圖像特征;
步驟4:在生成的特征中,每個特征做一個弱分類器,所有正負樣本上訓練,找到一個閾值讓它的分類錯誤率最低,從而生成強分類器;
步驟5:利用回歸串聯(lián)校正模型搜索到人臉在視頻圖像中出現(xiàn)的位置;其中,必須要所有的強分類器都在同一位置檢測出人臉,算法才確定幼兒人臉的位置,并將觀測到的人臉特征登記入庫,并將生成人臉模板即人臉特征文件保存到數(shù)據(jù)庫中而形成特征模板;
步驟6:保存檢測到的人臉位置,并將人臉的整體位置信息作為關鍵點定位的初始化信息;
步驟7:當下一幀圖像到達,將使用目標周圍區(qū)域的循環(huán)矩陣采集正負樣本,并利用脊回歸訓練目標檢測器;
步驟8:進一步的,將線性空間的脊回歸通過核函數(shù)映射到非線性空間,在非線性空間通過求解對偶問題,并使用循環(huán)矩陣傅里葉空間對角化簡化計算完成人臉跟蹤。
本文中的尺度濾波器與智能書桌的平臺結合,完成人臉的精確定位。本方法首先通過回歸串聯(lián)校正模型檢測人臉,并結合相關濾波的方法完成人臉跟蹤定位。首先幼兒進入教室,隨著ppt的播放可以吸引幼兒主動的配合并坐到智能書桌的指定位置上,一堂課的學習也隨即開始,此時智能書桌上的攝像頭已經(jīng)開啟。后臺信息處理中心通過攝像頭捕捉的實時圖像進行人臉采集、檢測、定位。本發(fā)明也可以增加眼睛、眉毛、嘴巴等關鍵點定位后對幼兒的專注力以及情緒變化進行分析,從而幫助幼兒提高學習效率,并幫助教師和家長了解并及時修正幼兒的不良情緒,養(yǎng)成良好的性格和品行。
其中,濾波指將信號中特定波段頻率濾除的操作,是抑制和防止干擾的一項重要措施,是根據(jù)觀察某一隨機過程的結果,對另一與之有關的隨機過程進行估計的概率理論與方法。
請參考圖3,圖3為本發(fā)明所提供的一種人臉定位系統(tǒng)的結構示意圖,該系統(tǒng)用于實現(xiàn)上述方法,該系統(tǒng)包括:
攝像頭101,用于拍攝學生的人臉圖像;
數(shù)據(jù)處理中心102,用于檢測人臉圖像中的人臉位置;當檢測到人臉位置后,依據(jù)預設的人臉關鍵點模型獲取人臉的狀態(tài)信息,確定人臉關鍵點。
可見,該系統(tǒng)通過課桌上的攝像頭拍攝學生的人臉信息,并檢測圖像中的人臉位置,當檢測到了人臉位置后,根據(jù)預先定義好的人臉關鍵點模型完成定位,實時估測人臉的狀態(tài)信息,通過狀態(tài)信息確定人臉關鍵點,提高人臉定位的準確性。
基于上述系統(tǒng),進一步的,數(shù)據(jù)處理中心包括:
搜索模塊具體用于獲取第一幀人臉圖像,將導入人臉的特征模板進行全圖搜索,生成多個圖像特征;依據(jù)圖像特征生成強分類器,利用回歸串聯(lián)校正模型搜索到人臉位置;
定位模塊,用于當檢測到人臉位置后,依據(jù)預設的人臉關鍵點模型獲取人臉的狀態(tài)信息,確定人臉關鍵點。
進一步的,數(shù)據(jù)處理中心還包括:計算模塊,用于計算學生人臉與攝像頭之間的空間幾何距離,利用空間幾何距離計算濾波器的尺度。
進一步的,數(shù)據(jù)處理中心還包括:保存模塊,用于保存檢測到的人臉位置,將人臉的整體位置信息作為人臉關鍵點定位的初始化信息。
本說明書中各個實施例采用遞進的方式描述,每個實施例重點說明的都是與其他實施例的不同之處,各個實施例之間相同相似部分互相參見即可。對于實施例公開的系統(tǒng)而言,由于其與實施例公開的方法相對應,所以描述的比較簡單,相關之處參見方法部分說明即可。
以上對本發(fā)明所提供的一種人臉定位方法及系統(tǒng)進行了詳細介紹。本文中應用了具體個例對本發(fā)明的原理及實施方式進行了闡述,以上實施例的說明只是用于幫助理解本發(fā)明的方法及其核心思想。應當指出,對于本技術領域的普通技術人員來說,在不脫離本發(fā)明原理的前提下,還可以對本發(fā)明進行若干改進和修飾,這些改進和修飾也落入本發(fā)明權利要求的保護范圍內。