一種基于視頻序列的人流量統(tǒng)計(jì)方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明屬于圖像處理與視頻監(jiān)控技術(shù)領(lǐng)域,涉及一種基于視頻序列的人流量統(tǒng)計(jì)方法。
【背景技術(shù)】
[0002]隨著人類智慧不斷推動(dòng)科技的快速發(fā)展,各種智能設(shè)備也在日趨進(jìn)步與完善,智能技術(shù)也因此正不斷地影響與改變著人們的學(xué)習(xí)生活與工作方式。在各個(gè)方面得到了廣泛應(yīng)用的圖像處理與視頻監(jiān)控系統(tǒng)作為人們學(xué)習(xí)與生活中的一部分,起到了不可磨滅的作用。人流量統(tǒng)計(jì)系統(tǒng)作為評(píng)估某一特定場(chǎng)景中,某些方向上人流量多少的計(jì)數(shù)系統(tǒng),在實(shí)際生活應(yīng)用中具有非常重要的作用。例如,通過(guò)對(duì)進(jìn)出教室人群進(jìn)行自動(dòng)統(tǒng)計(jì)不僅能考察各科的出勤率,從而合理的評(píng)估教學(xué)質(zhì)量,而且可以幫助同學(xué)們快速選擇合適的自習(xí)教室。通過(guò)對(duì)地鐵站內(nèi)進(jìn)出客流人數(shù)的統(tǒng)計(jì),可以方便地鐵運(yùn)營(yíng)方以及安保方有效地控制客流,做好應(yīng)對(duì)措施。通過(guò)對(duì)每路公交車的各個(gè)站點(diǎn)、各個(gè)時(shí)間段的人流量統(tǒng)計(jì),可以使交通運(yùn)營(yíng)者采取最合理的調(diào)度制度以及運(yùn)營(yíng)模式,這樣給乘客提供最方便、快捷的服務(wù)。
[0003]但是,傳統(tǒng)的人工計(jì)數(shù)方式不僅會(huì)耗費(fèi)大量的人力資源,而且可能由于各種因素造成錯(cuò)誤統(tǒng)計(jì),特別是對(duì)于那些人群出入密集場(chǎng)所,使得人工計(jì)數(shù)更加困難,而自動(dòng)人流量統(tǒng)計(jì)系統(tǒng)則能解決以上問(wèn)題,給學(xué)習(xí)和生活帶來(lái)巨大便利,提高生活質(zhì)量。因此,目前急需一種能夠克服人工計(jì)數(shù)方式劣勢(shì)的實(shí)時(shí)自動(dòng)人流量統(tǒng)計(jì)方法。
【發(fā)明內(nèi)容】
[0004]有鑒于此,本發(fā)明的目的在于提供一種基于視頻序列的人流量統(tǒng)計(jì)方法,該方法可以節(jié)約大量的人力資源,而且避免了由于人為因素所造成的錯(cuò)誤統(tǒng)計(jì),同時(shí)很好地克服了人工計(jì)數(shù)在某些場(chǎng)景下的計(jì)數(shù)劣勢(shì),并且該方法能夠準(zhǔn)確定位到單個(gè)行人,給后續(xù)分析工作帶來(lái)了重大意義。
[0005]為達(dá)到上述目的,本發(fā)明提供如下技術(shù)方案:
[0006]—種基于視頻序列的人流量統(tǒng)計(jì)方法,包括以下步驟:1)獲取視頻,通過(guò)采樣得到視頻序列;2)通過(guò)候選區(qū)域檢測(cè)模塊進(jìn)行粗檢測(cè)得到候選目標(biāo)區(qū)域;3)利用基于迀移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)+支持向量機(jī)分類器模型對(duì)候選區(qū)域進(jìn)行進(jìn)一步篩選得到檢測(cè)目標(biāo);4)根據(jù)航跡預(yù)測(cè)對(duì)待關(guān)聯(lián)的候選目標(biāo)范圍進(jìn)行限制;5)通過(guò)特征匹配進(jìn)行目標(biāo)航跡關(guān)聯(lián);6)利用航跡信息進(jìn)行人流量統(tǒng)計(jì)。
[0007]進(jìn)一步,在步驟2)中,通過(guò)候選區(qū)域檢測(cè)模塊進(jìn)行粗檢測(cè)得到候選區(qū)域,采用以下幾類方法得到候選區(qū)域:
[0008]21)基于檢測(cè)的方法:這類方法利用訓(xùn)練好的目標(biāo)分類器,對(duì)圖像進(jìn)行掃描得到疑似目標(biāo)區(qū)域;例如級(jí)聯(lián)的自適應(yīng)增強(qiáng)(Adaboost,Adaptive Boosting)檢測(cè)方法、方向梯度直方圖(H0G,Histogram of oriented gradient)+支持向量機(jī)(SVM,Support VectorMachine)等方法;
[0009]22)基于碎片聚合的方法:這類方法首先將圖片打碎,然后再聚合;例如選擇性搜索算法(Selective Search),該方法無(wú)需學(xué)習(xí),直接利用圖像分割方法獲得一些粗分割結(jié)果,然后根據(jù)給定的相似度準(zhǔn)則進(jìn)行聚合;
[0010]23)基于給滑動(dòng)窗口打分的方法:這類方法是先生成候選框,然后利用某些方法或者準(zhǔn)則直接打分排序來(lái)過(guò)濾掉低分的候選框;例如Bing、EdgeBoxes等方法。
[0011]在步驟3)中,提取出步驟S102所得到的候選區(qū)域,由于候選區(qū)域目標(biāo)存在錯(cuò)誤正樣本,因而需要對(duì)候選區(qū)域目標(biāo)重新加以挑選,從而得到正負(fù)樣本訓(xùn)練集,然后利用基于迀移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)+支持向量機(jī)分類器模型對(duì)候選區(qū)域進(jìn)行目標(biāo)判別確認(rèn),這樣能夠保證較高的目標(biāo)檢測(cè)率。
[0012]進(jìn)一步,在步驟3)中,基于迀移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)+支持向量機(jī)分類器模型中迀移學(xué)習(xí)是在已有卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型的基礎(chǔ)上進(jìn)行微調(diào)后重新訓(xùn)練,且卷積神經(jīng)網(wǎng)絡(luò)采用多層網(wǎng)絡(luò)結(jié)構(gòu),取全連接層特征向量作為卷積神經(jīng)網(wǎng)絡(luò)提取到的特征,輸入到支持向量機(jī)進(jìn)行模型訓(xùn)練,輸出即為基于迀移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)+支持向量機(jī)分類器模型。
[0013]進(jìn)一步,在步驟4)中,對(duì)篩選得到的檢測(cè)目標(biāo)航跡進(jìn)行預(yù)測(cè),根據(jù)航跡預(yù)測(cè)對(duì)待關(guān)聯(lián)的候選目標(biāo)范圍進(jìn)行限制;由于相鄰幀間行人目標(biāo)的空間位置變化不大,因而通過(guò)設(shè)置合適的閾值進(jìn)行距離區(qū)域限制,或者可以利用均值漂移、卡爾曼濾波、粒子濾波等方法預(yù)測(cè)當(dāng)前幀的指定目標(biāo)在下一幀可能出現(xiàn)的空間位置,從而以此目標(biāo)為中心進(jìn)行區(qū)域限制處理。
[0014]進(jìn)一步,在步驟5)中,通過(guò)步驟4)得到候選區(qū)域,對(duì)候選區(qū)域內(nèi)所有中心點(diǎn)在區(qū)域范圍內(nèi)的待關(guān)聯(lián)候選目標(biāo)一一進(jìn)行特征匹配,通過(guò)特征匹配進(jìn)行目標(biāo)航跡關(guān)聯(lián);在此過(guò)程中,通過(guò)設(shè)置兩個(gè)閾值,若匹配分?jǐn)?shù)達(dá)到最高設(shè)限閾值,且得到的匹配分?jǐn)?shù)最高,說(shuō)明該目標(biāo)最相關(guān),則將該檢測(cè)目標(biāo)確定為當(dāng)前幀指定目標(biāo)的關(guān)聯(lián)對(duì)象,若匹配分?jǐn)?shù)未達(dá)到最低設(shè)定閾值,則說(shuō)明當(dāng)前幀指定目標(biāo)為虛假目標(biāo),應(yīng)當(dāng)舍棄。
[0015]進(jìn)一步,對(duì)于匹配分?jǐn)?shù)在兩個(gè)設(shè)定閾值之間的檢測(cè)目標(biāo),若在匹配區(qū)域范圍內(nèi)仍存在未匹配對(duì)象,則可根據(jù)分?jǐn)?shù)高低與匹配分?jǐn)?shù)最高的檢測(cè)目標(biāo)進(jìn)行匹配,否則,若在匹配區(qū)域范圍內(nèi)不存在未匹配對(duì)象或匹配區(qū)域范圍內(nèi)不存在檢測(cè)目標(biāo),則暫時(shí)保存該目標(biāo),使之與后面隔幀圖像進(jìn)行匹配關(guān)聯(lián),若隔幀圖像在限定區(qū)域內(nèi)存在未與其上一幀匹配關(guān)聯(lián)目標(biāo),且滿足達(dá)到最低閾值,則可與其匹配分?jǐn)?shù)最高者進(jìn)行關(guān)聯(lián)即可,若此時(shí)仍未達(dá)到要求,仍先保存該目標(biāo),反復(fù)進(jìn)行匹配關(guān)聯(lián),直到連續(xù)N幀均未匹配到,則被視為無(wú)效目標(biāo),進(jìn)行舍棄。
[0016]進(jìn)一步,在步驟6)中,通過(guò)能夠匹配關(guān)聯(lián)到的相應(yīng)目標(biāo)航跡信息進(jìn)行跟蹤,當(dāng)檢測(cè)目標(biāo)通過(guò)指定檢測(cè)線或興趣區(qū)域時(shí)進(jìn)行雙向流計(jì)數(shù),從而最終得到人流量統(tǒng)計(jì)結(jié)果并顯示出來(lái),在這里,通過(guò)標(biāo)志位的變化、位移差或光流方向等方法來(lái)判斷行人運(yùn)動(dòng)方向,從而根據(jù)其相應(yīng)的變化進(jìn)行計(jì)數(shù)。
[0017]本發(fā)明的有益效果在于:本發(fā)明提供的方法可以節(jié)約大量的人力資源,而且避免了由于人為因素所造成的錯(cuò)誤統(tǒng)計(jì),同時(shí)很好地克服了人工計(jì)數(shù)在某些場(chǎng)景下的計(jì)數(shù)劣勢(shì),并且該方法能夠準(zhǔn)確定位到單個(gè)行人,給后續(xù)分析工作帶來(lái)了重大意義。
【附圖說(shuō)明】
[0018]為了使本發(fā)明的目的、技術(shù)方案和有益效果更加清楚,本發(fā)明提供如下附圖進(jìn)行說(shuō)明:
[0019]圖1為本發(fā)明所述方法的流程示意圖;
[°02°]圖2為Adaboost的算法流程示意圖;
[0021 ]圖3為基于迀移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)+支持向量機(jī)分類器模型示意圖;
[0022]圖4為特征匹配模塊示意圖;
[0023]圖5為人流量計(jì)數(shù)模塊示意圖。
【具體實(shí)施方式】
[0024]下面將結(jié)合附圖,對(duì)本發(fā)明的優(yōu)選實(shí)施例進(jìn)行詳細(xì)的描述。
[0025]本發(fā)明是為了更好地利用已有視頻資源,通過(guò)人流量統(tǒng)計(jì)技術(shù)達(dá)到實(shí)時(shí)計(jì)數(shù)的效果,方便多種場(chǎng)合下的人流量統(tǒng)計(jì)。該方法根據(jù)采集到的監(jiān)控序列圖像或視頻,對(duì)其圖像進(jìn)行處理,從而將檢測(cè)出來(lái)的人流量統(tǒng)計(jì)結(jié)果在線顯示出來(lái)。
[0026]由于人頭是身體部分中最為明顯的部位,特別是在人流量比較大的場(chǎng)所,此時(shí)由于受遮擋、光照、像素分辨率等因素的影響,使得準(zhǔn)確檢測(cè)身體其他部位變得更加困難,甚至幾乎很難進(jìn)行目標(biāo)檢測(cè)。由此可見(jiàn),目標(biāo)的可視性尤為重要。因此,在本實(shí)施例中,本發(fā)明具體針對(duì)人頭進(jìn)行檢測(cè),通過(guò)對(duì)檢測(cè)結(jié)果進(jìn)行準(zhǔn)確匹配關(guān)聯(lián),進(jìn)而通過(guò)跟蹤計(jì)數(shù)得到人流量統(tǒng)計(jì)結(jié)果。