两个人的电影免费视频_国产精品久久久久久久久成人_97视频在线观看播放_久久这里只有精品777_亚洲熟女少妇二三区_4438x8成人网亚洲av_内谢国产内射夫妻免费视频_人妻精品久久久久中国字幕

一種基于Haar特征和EOH特征的行人檢測(cè)方法_2

文檔序號(hào):9667795閱讀:來(lái)源:國(guó)知局
[0055] 在本實(shí)施方式中,通過(guò)引入正負(fù)樣本誤分類代價(jià)敏感機(jī)制,解決了傳統(tǒng)Gentle Adaboost算法無(wú)法解決正負(fù)樣本數(shù)量間的非均衡問(wèn)題,其具體實(shí)現(xiàn)過(guò)程為:
[0056] 首先設(shè)置非均衡的代價(jià)損失函數(shù)值的計(jì)算公式為下述公式(7)所示:
[0057]
[0058] 其中,Q為正樣本錯(cuò)分代價(jià)損失函數(shù)值,C2為負(fù)樣本錯(cuò)分代價(jià)損失函數(shù)值,H(xj =sign(Σfj(x))為強(qiáng)分類器的分類結(jié)果,CpC2e[0,1]且Q>C2。
[0059] 設(shè)正樣本被錯(cuò)誤分類的數(shù)量為Nfn,負(fù)樣本被錯(cuò)誤分類的數(shù)量為NFP,則分類器的分 類錯(cuò)誤率的計(jì)算公式為下述公式(8)所示:
[0060]
[0061] 采用指數(shù)形式表示正負(fù)樣本誤分損失函數(shù)的上限值的計(jì)算公式為下述公式(9) 所示:
[0062]
[0063]其中,F(xiàn)(x)為一累加模型,其表達(dá)式為'(Χ)=Σ//Χ)。 J
[0064] 則改進(jìn)后的GentleAdaboost算法模型一輪損失函數(shù)最小值的計(jì)算公式為下述公 式(10)所示:
[0065]
[0066] 其中,1( ·)為指標(biāo)函數(shù)。
[0067]公式(9)中的F(x)可根據(jù)累加模型計(jì)算得到,即每一輪最優(yōu)的弱分類器累加之 和。則新一輪的損失函數(shù)計(jì)算時(shí)F(x)值需要在上一輪的基礎(chǔ)上累加一個(gè)當(dāng)前最優(yōu)弱分類 器f(x)的計(jì)算公式如下述公式(11)所示:
[0068]
[0069]其中,w=w(x,>〇=e~〃w,Ew[·]為加權(quán)期望值,其計(jì)算公式為下述公式(12)所 示:
[0070]
[0071] 當(dāng)前最優(yōu)弱分類器f(x)的選取使用與GentleAdaboost算法類似的Newton修正 算法可表示下述公式(13)所示:
[0072]
[0073] 其中,Pw(y= 1 |x)和Pw(y= -1 |x)分別表示正負(fù)樣本的權(quán)重累計(jì)分布,每輪迭代 的權(quán)重變換公式為下述公式(14)所示:
[0074] w,(m+1) =w^e-c' y'Kx)(14);
[0075] 至此,本實(shí)施例中所述Gentle Adaboost算法修正完畢。
[0076] 其中,該正樣本集中的正樣本是包含行人頭部和\或肩部的樣本(即正樣本);該 負(fù)樣本集中的負(fù)樣本是不包含行人頭部和\或肩部的樣本(即負(fù)樣本)。具體的,該正/負(fù) 樣本集中正/負(fù)樣本為30X30~100X100像素的256階灰度圖像?;谟?jì)算機(jī)對(duì)圖像進(jìn) 行處理速度和效率的綜合考慮,在本實(shí)施方式中,可將正/負(fù)樣本集中的正/負(fù)樣本優(yōu)選為 30X30像素的256階灰度圖像。
[0077] 具體的,在本實(shí)施方式中,在初始化行人分類器中的正樣本集中的正樣本的個(gè)數(shù) 為4000,負(fù)樣本集中的負(fù)樣本的個(gè)數(shù)為6000。
[0078] 然后執(zhí)行步驟S3、獲取監(jiān)控區(qū)域的視頻流圖像作為輸入圖像。
[0079] 參圖5所示,在本實(shí)施方式中,攝像機(jī)10垂直拍攝并可適用于室外環(huán)境和室內(nèi)環(huán) 境中。在本實(shí)施方式中,該步驟S3具體為:通過(guò)攝像機(jī)10獲取監(jiān)控區(qū)域30的視頻流圖像 作為輸入圖像,所述監(jiān)控區(qū)域30位于攝像機(jī)10的正下方。
[0080] 具體的,攝像機(jī)10設(shè)置在出入口20的正上方,行人可沿著箭頭201的方向上在出 入口20中來(lái)回走動(dòng)。攝像機(jī)10所獲取的監(jiān)控區(qū)域30可完全覆蓋出入口20的全部區(qū)域。 該出入口20可設(shè)置在需要對(duì)行人人數(shù)進(jìn)行統(tǒng)計(jì)的商場(chǎng)、車庫(kù)、銀行等需要重點(diǎn)監(jiān)控場(chǎng)所的 大門(mén)口或者走廊中。
[0081] 需要說(shuō)明的是,本發(fā)明在攝像機(jī)10垂直地正對(duì)著監(jiān)控區(qū)域30時(shí)的效果最佳,當(dāng)然 可也將攝像機(jī)10傾斜地對(duì)著需要進(jìn)行行人人數(shù)計(jì)數(shù)統(tǒng)計(jì)的公共區(qū)域,以通過(guò)攝像機(jī)10覆 蓋整個(gè)監(jiān)控區(qū)域30。
[0082] 在本實(shí)施方式中,該監(jiān)控區(qū)域30為矩形;當(dāng)然也可以為正方形或圓形或者其他形 狀。攝像機(jī)10位于監(jiān)控區(qū)域30的中心點(diǎn)301的正上方,此時(shí)該監(jiān)控區(qū)域30位于攝像機(jī)10 的正下方。
[0083] 然后執(zhí)行步驟S4、利用行人分類器對(duì)輸入圖像進(jìn)行行人檢測(cè)。
[0084] 以30X30~100X100 (單位:像素)的矩形窗口對(duì)輸入圖像進(jìn)行掃描,計(jì)算落在 矩形窗口內(nèi)的待檢測(cè)圖像的Haar特征和Ε0Η特征的特征向量,并將所述待檢測(cè)圖像的Haar 特征和Ε0Η特征的特征向量的檢測(cè)結(jié)果輸入到行人分類器中,將輸出為正的待檢測(cè)圖像標(biāo) 記為行人區(qū)域。
[0085] 最后執(zhí)行步驟S5、基于EKM算法對(duì)檢測(cè)得到的行人進(jìn)行跟蹤和計(jì)數(shù)。
[0086] EKM算法采用Kalman濾波和mean shift算法相結(jié)合的方法。
[0087] 具體為:根據(jù)前一幀圖像中目標(biāo)位置的坐標(biāo),利用Kalman濾波來(lái)預(yù)測(cè)本幀圖像中 目標(biāo)可能的坐標(biāo)點(diǎn),之后再利用mean shift算法以估計(jì)到的坐標(biāo)點(diǎn)為起始點(diǎn)進(jìn)行迭代運(yùn) 算。
[0088] 由于Kalman濾波估計(jì)到的目標(biāo)坐標(biāo)點(diǎn)相比上一幀圖像中的目標(biāo)位置更接引本幀 圖像中的目標(biāo)位置,所以在運(yùn)用meanshift算法對(duì)其迭代求解本幀圖像的目標(biāo)位置的時(shí) 候,可以有效的減少迭代計(jì)算的次數(shù),縮短整體的目標(biāo)識(shí)別時(shí)間。最后進(jìn)行計(jì)數(shù),得到行人 的個(gè)數(shù)。
[0089] 此外,應(yīng)當(dāng)理解,雖然本說(shuō)明書(shū)按照實(shí)施方式加以描述,但并非每個(gè)實(shí)施方式僅包 含一個(gè)獨(dú)立的技術(shù)方案,說(shuō)明書(shū)的這種敘述方式僅僅是為清楚起見(jiàn),本領(lǐng)域技術(shù)人員應(yīng)當(dāng) 將說(shuō)明書(shū)作為一個(gè)整體,各實(shí)施例中的技術(shù)方案也可以經(jīng)適當(dāng)組合,形成本領(lǐng)域技術(shù)人員 可以理解的其他實(shí)施方式。
【主權(quán)項(xiàng)】
1. 一種基于Haar特征和EOH特征的行人檢測(cè)方法,其特征在于,包括以下步驟: 51、 計(jì)算訓(xùn)練樣本集中的正/負(fù)樣本的Haar特征和E0H特征的特征向量; 52、 通過(guò)改進(jìn)的GentleAdaboost算法對(duì)訓(xùn)練樣本集中的正/負(fù)樣本進(jìn)行訓(xùn)練,得到行 人分類器; 53、 獲取監(jiān)控區(qū)域的視頻流圖像作為輸入圖像; 54、 利用行人分類器對(duì)輸入圖像進(jìn)行行人檢測(cè); 55、 基于EKM算法對(duì)檢測(cè)得到的行人進(jìn)行跟蹤和計(jì)數(shù)。2. 根據(jù)權(quán)利要求1所述的行人檢測(cè)方法,其特征在于,所述步驟S1中的訓(xùn)練樣本集由 包含若干正樣本的正樣本集與包含若干負(fù)樣本的負(fù)樣本集所組成;其中, 所述正樣本集中的正樣本包含行人頭部和\或肩部;所述負(fù)樣本集中的負(fù)樣本不包含 行人頭部和\或肩部。3. 根據(jù)權(quán)利要求1所述的行人檢測(cè)方法,其特征在于,所述步驟S1中對(duì)訓(xùn)練樣本集中 的正/負(fù)樣本進(jìn)行Haar特征的計(jì)算具體為:將若干Haar基本特征線性組合,以形成的若干 Haar特征。4. 根據(jù)權(quán)利要求1所述的行人檢測(cè)方法,其特征在于,所述步驟S1中的"E0H特征的特 征向量"是通過(guò)在訓(xùn)練樣本集中的任意一個(gè)正樣本或負(fù)樣本進(jìn)行像素點(diǎn)的梯度值計(jì)算所形 成的梯度圖像的基礎(chǔ)之上,通過(guò)對(duì)所述梯度圖像進(jìn)行HOG特征提取所得到的邊緣圖像直方 圖特征。5. 根據(jù)權(quán)利要求1或2所述的行人檢測(cè)方法,其特征在于,所述訓(xùn)練樣本集中的正/負(fù) 樣本為30X30~100X100像素的256階灰度圖像。6. 根據(jù)權(quán)利要求1所述的行人檢測(cè)方法,其特征在于,所述步驟S2中"改進(jìn)的Gentle Adaboost算法"具體為:在傳統(tǒng)GentleAdaboost算法的基礎(chǔ)上,引入正/負(fù)樣本誤分類代 價(jià)敏感機(jī)制。7. 根據(jù)權(quán)利要求1所述的行人檢測(cè)方法,其特征在于,所述步驟S3具體為:通過(guò)攝像 機(jī)獲取監(jiān)控區(qū)域的視頻流圖像作為輸入圖像,所述監(jiān)控區(qū)域位于攝像機(jī)的正下方。8. 根據(jù)權(quán)利要求1所述的行人檢測(cè)方法,其特征在于,所述步驟S4具體為:使用 30X30~100X100的矩形窗口對(duì)步驟S3所獲取的輸入圖像進(jìn)行掃描,計(jì)算落在矩形窗口 內(nèi)待檢測(cè)圖像的Haar特征和E0H特征的特征向量,并將所述待檢測(cè)圖像的Haar特征和E0H 特征的特征向量的檢測(cè)結(jié)果輸入至行人分類器中,將行人分類器輸出為正的待檢測(cè)圖像標(biāo) 記為行人區(qū)域。9. 根據(jù)權(quán)利要求1所述的行人檢測(cè)方法,其特征在于,步驟S5中的所述"EKM算法"具 體為:根據(jù)前一幀圖像中目標(biāo)位置的坐標(biāo),利用Kalman濾波來(lái)預(yù)測(cè)本幀圖像中目標(biāo)可能的 坐標(biāo)點(diǎn),然后再利用meanshift算法以估計(jì)到的坐標(biāo)點(diǎn)為起始點(diǎn)進(jìn)行迭代運(yùn)算。
【專利摘要】本發(fā)明屬于視頻圖像處理技術(shù)領(lǐng)域,并提供了一種基于Haar特征和EOH特征的行人檢測(cè)方法,包括:S1、計(jì)算訓(xùn)練樣本集中的正/負(fù)樣本的Haar特征和EOH特征的特征向量;S2、通過(guò)改進(jìn)的Gentle?Adaboost算法對(duì)訓(xùn)練樣本集中的正/負(fù)樣本進(jìn)行訓(xùn)練,得到行人分類器;S3、獲取監(jiān)控區(qū)域的視頻流圖像作為輸入圖像;S4、利用行人分類器對(duì)輸入圖像進(jìn)行行人檢測(cè);S5、基于EKM算法對(duì)檢測(cè)得到的行人進(jìn)行跟蹤和計(jì)數(shù)。在本發(fā)明中,通過(guò)將Haar特征與EOH特征一起作為特征向量對(duì)行人特征進(jìn)行描述,提升了行人檢測(cè)的精確度,并有效地提高了對(duì)公共區(qū)域內(nèi)對(duì)行人進(jìn)行人數(shù)統(tǒng)計(jì)的效率與準(zhǔn)確度。
【IPC分類】G06K9/66
【公開(kāi)號(hào)】CN105426928
【申請(qǐng)?zhí)枴緾N201410482324
【發(fā)明人】呂楠, 張麗秋
【申請(qǐng)人】無(wú)錫慧眼電子科技有限公司
【公開(kāi)日】2016年3月23日
【申請(qǐng)日】2014年9月19日
當(dāng)前第2頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
大关县| 杂多县| 绥化市| 克什克腾旗| 兴安县| 汽车| 沙湾县| 平武县| 万年县| 永定县| 台江县| 萝北县| 昭平县| 庄河市| 登封市| 津南区| 武夷山市| 武义县| 南通市| 马边| 平定县| 沅陵县| 曲阜市| 安远县| 东乡族自治县| 蒙城县| 西昌市| 柳江县| 深圳市| 新津县| 邮箱| 突泉县| 灌阳县| 贡嘎县| 萝北县| 达孜县| 莲花县| 辰溪县| 宁武县| 庆安县| 福安市|