專利名稱::數(shù)字視頻目標跟蹤中的目標匹配方法
技術(shù)領(lǐng)域:
:本發(fā)明屬于數(shù)字圖像處理
技術(shù)領(lǐng)域:
,涉及運動目標跟蹤,具體是一種數(shù)字視頻運動目標匹配的方法。
背景技術(shù):
:視頻目標跟蹤方法在數(shù)字視頻處理領(lǐng)域有很廣泛的應(yīng)用。目標匹配方法屬于目標跟蹤方法的一部分。目標匹配方法的好壞直接決定了跟蹤方法的質(zhì)量。目前目標匹配的方法主要有基于目標表象特征的方法和基于統(tǒng)計建模的方法。K.Nummiaro,E.Koller-Meier,L.VanGool在文章"Anadaptivecolorbasedparticlefilter",ImageandVisionComputing,2003中提出了一禾中基于目標顏色分布的目標匹配準則。使用顏色作為目標匹配準則的方法很多,如P.Perez,C.Hue,J.VermaakandM.Gangnet,,,Color-BasedProbabilisticTracking,"EuropeanConferenceonComputerVision",pp.661-675,2002。這種方法有很多優(yōu)點,比如對旋轉(zhuǎn),部分遮擋的魯棒性等等。此外還有使用目標邊緣直方圖作為目標匹配準則的方法或者結(jié)合多種目標信息作為目標匹配的準則。上述目標的不足在于其使用的特征信息都是基于幀內(nèi)信息的,不包含目標的運動信息。而目標的運動信息是運動目標跟蹤方法最需要獲取的。基于顏色分布的目標匹配方法在圖5中的目標跟蹤任務(wù)失敗恰恰是由于該方法缺少運動信息?;诮y(tǒng)計建模的方法在目標跟蹤的任務(wù)中也常被采用,如M.Isard,J.MacCormick在"BraMBLe:ABayesianMultiple-BlobTracker",InternationalConferenceonComputerVision,2001中所述的方法;R.Pless在"Spatio-temporalbackgroundmodelsforoutdoorsurveillance",EURASIPJournalonAppliedSignalProcessing,pp.2281-229,2005中所述的方法。基于統(tǒng)計建模的方法,如上述兩篇引文中介紹的那樣,通常是選擇目標的一種統(tǒng)計特征,然后訓練一個統(tǒng)計模型來描述該特征。這個模型則作為對后續(xù)幀中目標匹配的量度。然而傳統(tǒng)的目標統(tǒng)計模型的不足點是由于對整幀圖像內(nèi)的像素建模,要求鏡頭不能運動或者只能容忍幅度很小的抖動,因而不適用對攝像鏡頭隨著載具運動的視頻序列中的目標進行跟蹤。
發(fā)明內(nèi)容本發(fā)明的目的在于克服上述已有技術(shù)的不足,提出一種數(shù)字視頻目標跟蹤中的目標匹配方法,以實現(xiàn)在航拍視頻序列中對目標的穩(wěn)定跟蹤。為實現(xiàn)上述目的,本發(fā)明的目標匹配方法包括如下步驟(1)根據(jù)目標像素的統(tǒng)計特征建立基于視頻目標時空信息模型;(2)計算視頻后續(xù)幀中的所有目標位置假設(shè)的每一個像素與所述目標時空信息模型的擬合程度,并判斷這些擬合程度,對于擬合程度大于設(shè)定門限的像素認為其屬于目標時空信息模型,使用核函數(shù)對后續(xù)幀中屬于上述模型的像素加權(quán),計算每一個目標位置假設(shè)和時空信息模型的匹配度;(3)計算后續(xù)幀中所有目標位置假設(shè)的上述匹配度,對于匹配度高于設(shè)定閾值2或閾值l的目標位置假設(shè)認為是目標的真實位置,并用匹配度高于設(shè)定閾值2的目標位置假設(shè)置更新目標時空信息模型。所述的建立基于視頻目標時空信息模型,按如下步驟進行(la)根據(jù)初始幀中標定的目標位置計算該位置中每個像素點在x,y,t方向上的偏導數(shù)作為該像素的統(tǒng)計特征(lb)統(tǒng)計所有初始幀中的目標位置中相對應(yīng)位置所有像素的統(tǒng)計特征;(lc)使用高斯分布模型描述目標位置上每一個像素的統(tǒng)計特征,獲取該高斯模型的均值向量和方差矩陣。所述的更新目標時空信息模型,按如下步驟進行(3a)計算匹配度大于闞值2的目標位置假設(shè)中的每個像素點在x,y,t方向上的偏導數(shù)作為該像素的統(tǒng)計特征;(3b)根據(jù)統(tǒng)特征計算目標時空信息模型的更新參數(shù)Anew-A+(n+1)2O^new—AO(/^new—AO,式中,An^為更新后模型的方差矩陣,Mnew為更新后模型的統(tǒng)計特征均值向量,A為原模型的方差矩陣,p為原模型的統(tǒng)計特征均值向量,n為訓練幀的幀數(shù)。本發(fā)明由于使用運動目標的時空信息模型計算目標的匹配度,所以能夠分辨出使用諸如顏色,邊緣等幀內(nèi)信息作為匹配度所不能分辨的目標;同時由于時空信息模型是直接建立在目標上而不是一個全局的模型,故可實現(xiàn)在航拍視頻中使用。仿真結(jié)果表明,用本發(fā)明的方法在航拍視頻中更夠正確分辨出地面運動目標,如各種車輛。圖l是本發(fā)明的整體流程圖圖2是本發(fā)明用于建立目標時空信息模型使用的訓練幀圖圖3是本發(fā)明后續(xù)幀上的一些目標位置假設(shè)圖;圖4是基于現(xiàn)有巴氏距離的匹配準則的跟蹤效果圖;圖5是基于本發(fā)明所述匹配準則的跟蹤效果圖。具體實施例方式參照圖1,本發(fā)明的目標匹配方法包括如下步驟步驟l,建立運動目標時空信息模型。根據(jù)圖2所示的初始幀標定的目標位置,計算每個標定框內(nèi)的像素的時空差分統(tǒng)計特征=(/x⑧t),/y(^:U(At))t,其中為該像素的灰度值,-代表像素位置,t為時間。如果視頻幀是彩色的,則先要將其轉(zhuǎn)換為灰度圖。具體建模過程如下(l.l)根據(jù)初始幀中標定的目標位置計算該位置中每個像素點在x,y,t方向上的偏導數(shù)作為該像素的統(tǒng)計特征;(1.2)統(tǒng)計所有初始幀中的目標位置中相對應(yīng)位置所有像素的統(tǒng)計特征;(1.3)使用一個或者是多個高斯分布模型描述訓練幀中目標位置上每一個像素的統(tǒng)計特征,獲取該高斯模型的均值向量和方差矩陣,每個分布的方差矩陣為式中,n為屬于該分布的視頻幀數(shù),^為統(tǒng)計特征的均值向量。使用多個分布模型的情況是,先使用監(jiān)督聚類算法找到統(tǒng)計特征的各個聚類中心,其余步驟同單模型情況。步驟2,計算匹配度。(2.1)計算如圖3所示的后續(xù)幀目標假設(shè)的上述統(tǒng)計特征和該位置的統(tǒng)計模型的距離d=mirii(V他t)-/^)rA"(▽/(-,0-^)'式中,d為特征向量在多組高斯分布統(tǒng)計特征中的最小的馬氏距離,I為該像素的灰度值,-代表像素位置,t為時間,A"是一個高斯分布方差矩陣的逆。如果d小于設(shè)定的一個門限,則認為此位置的像素屬于時空信息模型。(2.2)使用一個核函數(shù),如高斯核函數(shù)fc(r)=ae—^,對目標位置假設(shè)中所有屬于時空信息模型的像素加權(quán),fc為權(quán)值,a為權(quán)重放大系數(shù),r為目標位置假設(shè)中某像素到目標位置假設(shè)幾何中心的歐式距離,(12為此高斯核函數(shù)的方差,該核函數(shù)的極大值位于目標位置假設(shè)幾何中心,函數(shù)值隨像素到此幾何中心的距離衰減,(2.3)將目標位置像素的權(quán)值求和后與目標位置假設(shè)中像素數(shù)目相比,其比值為百分數(shù)制大于0小于100%,需要注意的是如果加權(quán)函數(shù)使目標位置假設(shè)和模型的匹配度超過100%則需要調(diào)整其參數(shù)和d的值。步驟3,目標匹配和模型更新。(3.l)對某一后續(xù)幀中所有目標位置假設(shè)的匹配度進行判斷,對于匹配度高于設(shè)定閾值2或閾值1的目標位置假設(shè)認為是目標的真實位置,并用匹配度高于設(shè)定閾值2的目標位置假設(shè)置更新目標時空信息模型。(3.2)計算大于閾值2的目標位置假設(shè)像素的的統(tǒng)計特征V/(^t)-(^(^t),/y(:At),/t(A0)t,使用這些統(tǒng)計特征更新模型的參數(shù)<formula>formulaseeoriginaldocumentpage7</formula>式中,An^為更新后模型的方差矩陣,^ew為更新后模型的統(tǒng)計特征均值向量,A為原模型的方差矩陣,^為原模型的統(tǒng)計特征均值向量,n為訓練幀的幀數(shù)。步驟4,循環(huán)步驟2-3直到跟蹤任務(wù)結(jié)束。本發(fā)明的效果可通過以下仿真詳細說明(1)仿真條件,本發(fā)明中的仿真實驗結(jié)果是使用卡內(nèi)基梅隆大學提供的VIVD數(shù)據(jù)庫中egtest01數(shù)據(jù)在Matlab環(huán)境下得到的;跟蹤算法使用粒子濾波器。(2)仿真內(nèi)容,使用現(xiàn)有的基于顏色分布的巴氏距離匹配方法和本發(fā)明所述的匹配方法在egtest01數(shù)據(jù)庫上進行目標跟蹤對比。(3)仿真結(jié)果,如圖4、圖5和表1、表2所示。圖4給出了采用現(xiàn)有的基于顏色分布的目標匹配方法在粒子濾波器跟蹤算法引導下的跟蹤結(jié)果。從圖4中可以看到,使用現(xiàn)有的基于顏色分布的目標跟蹤方法不能分辨顏色相近的兩輛車。圖5給出了采用本發(fā)明所述的目標匹配方法在粒子濾波器跟蹤算法引導下的跟蹤結(jié)果。從圖5中可以看到,由于本發(fā)明所述的目標匹配方法整合了目標的運動信息,可以根據(jù)運動信息分辨出顏色相近的這兩輛車。表1給出了圖3左中的目標位置假設(shè)在基于本發(fā)明所述匹配度和基于顏色的巴氏距離的匹配度。表1<table>tableseeoriginaldocumentpage7</column></row><table>從表1和圖3可以看出本發(fā)明所述的目標匹配方法對目標真實位置的匹配度的高,對目標位置假設(shè)1和目標位置假設(shè)2的匹配度低。所以本發(fā)明所述的目標匹配方法較現(xiàn)有的基于顏色分布的巴氏系數(shù)的匹配方法有更好的分辨力。表2給出了圖3右中的目標位置假設(shè)在基于本發(fā)明所述匹配度和基于顏色的巴氏距離的匹配度。表2<table>tableseeoriginaldocumentpage8</column></row><table>從表2和圖3可以看出本發(fā)明所述的目標匹配方法對目標真實位置的匹配度的高,對目標位置假設(shè)1和目標位置假設(shè)2的匹配度低。所以本發(fā)明所述的目標匹配方法較現(xiàn)有的基于顏色分布的巴氏系數(shù)的匹配方法有更好的分辨力。權(quán)利要求1.一種數(shù)字視頻目標跟蹤中的目標匹配方法,包括以下步驟(1)根據(jù)目標像素的統(tǒng)計特征建立基于視頻目標時空信息模型;(2)計算視頻后續(xù)幀中的所有目標位置假設(shè)的每一個像素與所述目標時空信息模型的擬合程度,并判斷這些擬合程度,對于擬合程度大于設(shè)定門限的像素認為其屬于目標時空信息模型,使用核函數(shù)對后續(xù)幀中屬于上述模型的像素加權(quán),計算每一個目標位置假設(shè)和時空信息模型的匹配度;(3)計算后續(xù)幀中所有目標位置假設(shè)的上述匹配度,對于匹配度高于設(shè)定閾值2或閾值1的目標位置假設(shè)認為是目標的真實位置,并用匹配度高于設(shè)定閾值2的目標位置假設(shè)置更新目標時空信息模型。2.根據(jù)權(quán)利要求l所述目標匹配方法,其中步驟(l)所述的建立基于視頻目標時空信息模型,按如下步驟進行(la)根據(jù)初始幀中標定的目標位置計算該位置中每個像素點在x,y,t方向上的偏導數(shù)作為該像素的統(tǒng)計特征;(lb)統(tǒng)計所有初始幀中的目標位置中相對應(yīng)位置所有像素的統(tǒng)計特征;(lc)使用高斯分布模型描述目標位置上每一個像素的統(tǒng)計特征,獲取該高斯模型的均值向量和方差矩陣。3.根據(jù)權(quán)利要求l所述的匹配方法,其中步驟(2)所述的計算后續(xù)幀中所有目標位置假設(shè)的上述匹配度,是使用和函數(shù)對目標位置假設(shè)中所有屬于高斯分布模型像素加權(quán)后進行求和,將該加權(quán)和與該目標位置假設(shè)中所有像素數(shù)目相比,將該比值作為匹配度。4.根據(jù)權(quán)利要求1所述的匹配方法,其中步驟(2)所述的核函數(shù),它的極大值位于目標位置假設(shè)幾何中心,函數(shù)值隨像素到此幾何中心的距離衰減。5.權(quán)利要求1所述的匹配方法,其中步驟(3)所述的閾值1與閾值2的取值均大于0%小于100%,且閾值2大于閾值1。6.根據(jù)權(quán)利要求1所述的目標匹配方法,其中步驟(3)所述的更新目標時空信息模型,按如下步驟進行(3a)計算匹配度大于閾值2的目標位置假設(shè)中的每個像素點在x,y,t方向上的偏導數(shù)作為該像素的統(tǒng)計特征(3b)根據(jù)統(tǒng)特征計算目標時空信息模型的更新參數(shù)Anew=A+(n+1)2(〃new-〃)(Pnew-M)T,式中,Anew為更新后模型的方差矩陣,^evv為更新后模型的統(tǒng)計特征均值向量,A為原模型的方差矩陣,p為原模型的統(tǒng)計特征均值向量,n為訓練幀的幀數(shù)。7.根據(jù)權(quán)利要求2所述的的目標匹配方法,其中步驟(lc)所述的使用高斯分布模型描述目標位置上每一個像素的統(tǒng)計特征,采用一個高斯分布模型或者多個高斯分布模型對目標位置上每一個像素的統(tǒng)計特征進行描述。全文摘要本發(fā)明公開了一種數(shù)字視頻目標跟蹤中的目標匹配方法。其步驟為(1)根據(jù)目標像素的統(tǒng)計特征建立視頻目標時空信息模型;(2)計算視頻后續(xù)幀中的所有目標位置假設(shè)的每一個像素與所述目標時空信息模型的擬合程度,并判斷這些擬合程度,對于擬合程度大于設(shè)定門限的像素認為其屬于目標時空信息模型,使用核函數(shù)對后續(xù)幀中屬于上述模型的像素加權(quán),計算每一個目標位置假設(shè)和時空信息模型的匹配度;(3)計算后續(xù)幀中所有目標位置假設(shè)的上述匹配度,對于匹配度高于設(shè)定閾值2或閾值1的目標位置假設(shè)認為是目標的真實位置,并用匹配度高于設(shè)定閾值2的目標位置假設(shè)置更新目標時空信息模型。本發(fā)明具有分辨力高,跟蹤目標穩(wěn)定的優(yōu)點,可用于在航拍視頻中的運動目標跟蹤。文檔編號G06T7/20GK101458816SQ20081023271公開日2009年6月17日申請日期2008年12月19日優(yōu)先權(quán)日2008年12月19日發(fā)明者候彥賓,毅張,梁繼民,捷田,曦肖,胡海虹,恒趙申請人:西安電子科技大學