基于恰可覺(jué)察失真模型的快速自適應(yīng)環(huán)路濾波算法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明設(shè)及一種快速自適應(yīng)環(huán)路濾波方法,尤其設(shè)及一種基于恰可覺(jué)察失真模型 的快速自適應(yīng)環(huán)路濾波方法,屬于視頻編碼技術(shù)領(lǐng)域。
【背景技術(shù)】
[0002] 社會(huì)在不斷發(fā)展的同時(shí)也伴隨著向人類(lèi)傳遞大量的信息,而人類(lèi)對(duì)信息的提取大 約有70%來(lái)自于視覺(jué)。因此,人們對(duì)視頻質(zhì)量的要求當(dāng)仁不讓將處于第一位,因?yàn)橐曨l的 最終目的是為人眼服務(wù)。然而,現(xiàn)有的網(wǎng)絡(luò)帶寬不能滿(mǎn)足高清視頻信號(hào)的實(shí)時(shí)傳輸,因此, 視頻編碼壓縮技術(shù)對(duì)視頻通信的發(fā)展有著重大的影響。為了得到更高的壓縮效率和支持高 清/超高清的視頻壓縮,兩大國(guó)際標(biāo)準(zhǔn)化組織IS0/IEC和口U-T成立了視頻聯(lián)合開(kāi)發(fā)小組 (JointColl油orativeTeamonVideoCoding,JCT-VC),并制定了高效的視頻壓縮標(biāo)準(zhǔn) (Hi曲EfficiencyVideoCoding,肥VC)。與先進(jìn)的視頻壓縮標(biāo)準(zhǔn)H.264/AVC相比,肥VC在 達(dá)到H. 264/AVC相同視頻質(zhì)量的基礎(chǔ)上,節(jié)省了一半的比特率。與2D視頻相比,3D視頻能 提供更加逼真和自然的視覺(jué)感受,但是,巨大的視頻數(shù)據(jù)量阻礙了 3D視頻的廣泛應(yīng)用,使 其不能很好地應(yīng)用到人們的日常生活當(dāng)中。為了更好的支持立體3D視頻的應(yīng)用,IS0/IEC 和口U-T兩組織又制定了基于肥VC的新3D視頻壓縮標(biāo)準(zhǔn)3D-HEVC,同時(shí)提供了 3D-HEVC的 參考軟件(肥VC-BasedTestModel,HTM)。 陽(yáng)00引肥VC跟H. 264/AVC-樣,都是采用基于塊的預(yù)測(cè)、變換和量化的混合編碼方案。因 此,在H. 264/AVC視頻中出現(xiàn)的塊狀效應(yīng)、振鈴效應(yīng)、色彩溢出和模糊效應(yīng)等,在肥VC視頻 標(biāo)準(zhǔn)中依然存在。然而,視頻最終顯示的圖像質(zhì)量的好壞與環(huán)路濾波算法的性能有著緊密 的聯(lián)系。因此,為了降低上述效應(yīng)對(duì)視頻質(zhì)量的影響,HTM采用了 =種環(huán)路濾波技術(shù):去塊 濾波值eblockingFilter,DF)、自適應(yīng)義樣值補(bǔ)償(SampleAdaptiveOffset,SA0)和自 適應(yīng)環(huán)路濾波(AdaptiveLoopFilter,ALF)。去塊濾波主要用來(lái)解決方塊效應(yīng)對(duì)視頻質(zhì) 量的影響,它的核屯、思想就是對(duì)塊邊界進(jìn)行判斷來(lái)決定是否需要去塊濾波處理,即判斷當(dāng) 前邊界是真實(shí)邊界,還是塊效應(yīng)造成的偽邊界。如果需要去塊濾波處理,還需要判斷是采用 強(qiáng)濾波模式還是弱濾波模式。SAO主要用來(lái)解決肥VC視頻標(biāo)準(zhǔn)中的振鈴效率,它的核屯、思 想就是對(duì)采樣點(diǎn)進(jìn)行分類(lèi),然后根據(jù)率失真代價(jià)為每種類(lèi)型選擇最佳的補(bǔ)償值,最后對(duì)每 個(gè)采樣點(diǎn)增加相對(duì)應(yīng)的補(bǔ)償值來(lái)提高視頻的主觀和客觀質(zhì)量。ALF濾波器主要用來(lái)進(jìn)一步 提高視頻的編碼效率,降低上述效應(yīng)對(duì)視頻質(zhì)量的影響,它的核屯、思想就是根據(jù)維納-霍 夫方程使得原始帖和重構(gòu)帖之間的均方誤差最小。 陽(yáng)004] 恰可察覺(jué)失真(JND--化StNotice油IeDistcxrtion)模型是指由于人類(lèi)視覺(jué)系 統(tǒng)(HVS--HumanVisualSystem)存在的各種視覺(jué)屏蔽效應(yīng),使得人眼只能察覺(jué)到超過(guò) 某一闊值的噪聲,該闊值即為最小察覺(jué)失真。從JND模型的定義可知,JND模型表示視頻質(zhì) 量發(fā)生改變時(shí),人眼不能察覺(jué)的最大視頻失真。傳統(tǒng)的基于最大編碼單元化CU)的ALF算 法對(duì)每個(gè)LCU都采用相同的處理步驟,首先計(jì)算維納濾波參數(shù),然后判斷當(dāng)前LCU是否需要 ALF處理,因此,它沒(méi)有考慮到每個(gè)LCU的特性和人類(lèi)的主觀感受。而人類(lèi)在觀看視頻和圖 像時(shí),并不是對(duì)視頻和圖像的所有內(nèi)容都感興趣,而且不同區(qū)域的感興趣程度也不一樣。因 此,不感興趣區(qū)域的視頻失真對(duì)視頻質(zhì)量影響不大。當(dāng)前,在國(guó)內(nèi)外對(duì)自適應(yīng)環(huán)路濾波的研 究是視頻編碼的一個(gè)熱點(diǎn),但是很少有學(xué)者在降低濾波器復(fù)雜度的時(shí)候考慮到人眼視覺(jué)特 性,因而該發(fā)明無(wú)疑具有重要意義。
【發(fā)明內(nèi)容】
陽(yáng)〇化]本發(fā)明提供一種基于恰可覺(jué)察失真模型的快速自適應(yīng)環(huán)路濾波方法。
[0006] 為達(dá)到上述目的,本發(fā)明所采用的技術(shù)方案是:
[0007] 一種基于恰可覺(jué)察失真模型的快速自適應(yīng)環(huán)路濾波方法,包括W下步驟: 陽(yáng)00引步驟1 :建立JND模型: 陽(yáng)009] JND(x,y)=Ti(x, y)+Tt(x, y)-Ci,t?min{Ti(x, y), Tt(x, y)} (I)
[0010] (I)式中,Tl(x,y)表示像素I(x,y)所在區(qū)域的亮度掩蓋效應(yīng)產(chǎn)生的最小可覺(jué)察 闊值,其計(jì)算方法為:
ifl{x,y)<\21 W"] U) Ifl(X^y) >127 陽(yáng)〇1引 似式中,如,)')表示像素I(x,y)周?chē)?巧窗口的平均背景亮度值,其計(jì)算方法為:
柳1引 (3)
[0014] (3)式中,B (i?如為5巧的低通濾波器: Illlf1 2: 2: 2:I 陽(yáng) 01引 公〇?J)=1 2 0 2 1 ('斗> 1 :2 2 2 1 1 1111
[0016] (1)式中,Tt(x,y)表示像素I(x,y)所在區(qū)域的對(duì)比度掩蓋效應(yīng)產(chǎn)生的最小可覺(jué) 察闊值,其計(jì)算方法為:
[0017] Tt(x, y) = n *G(x, y) ? We (x, y) (5)
[0018] (5)式中,We(x,y)表示邊緣區(qū)域與紋理區(qū)域的加權(quán)值,n表示對(duì)比度掩蓋效應(yīng) 加權(quán)系數(shù);G(x,y)表示對(duì)像素I(x,y)進(jìn)行四個(gè)不同方向邊緣檢測(cè)后的最大值,其計(jì)算方法 為:
[0019]C(.W)=,叩{1巧."4' >.)1} (6 )
[0020]
巧) '_1 III 1] 「1 I. IIr I. IIII 12 2 2 1
[0021] (?,化j〇二 II 0 iI,(?2(/J)= I2 0 2 I 1 2 2 2 1 I么么么1 -11. 1. 1, IJLi 1. '1. 1 1 Iiii r11111 陽(yáng)0。] 馬裝/>= 1; 2估2 1 1么么么11 1 1 1 _1 1 1 1 1 :2 :2 :2 I GjOV/)= 1 2 0 2 1 ^8) 1 2 2 2 1 1 1 1 1 1
[0023] 步驟2 :利用所述JND模型將圖像帖劃分為感興趣區(qū)域ROI和非感興趣區(qū)域RONI: (JM)",, z'〇y居化)/
[0024] i 巧) ND[。>JNDLCUe-民ON! 陽(yáng)0巧]其中,JN町C。表示LCU中所有像素的JND值之和,所述JND值利用所述JND模型計(jì) 算得到;JNDff。。。表示圖像帖中所有像素的JND值之和的平均值,其計(jì)算方法為:
[0026]
(10)
[0027] 其中,N表示所述圖像帖中LCU的個(gè)數(shù);
[0028] 步驟3 :利用Canny算子將RONI劃分為感興趣平滑區(qū)域RONISR和感興趣紋理區(qū) 域ROWTR: \Cannv,,,,,<k民ONI'r二民ONiS民
[0029] (11): >/f民ONl;;民〇N!m
[0030] 其中,k表示RONISR與RONITR的劃分闊值,Canny胃康示屬于非感興趣區(qū)域的LCU 中邊界像素所占的比例,其計(jì)算方法為:
[0031]Canny腳NI=Xedge/M(12) 陽(yáng)0巧其中,Xcdg讀示LCU中邊界像素的個(gè)數(shù),M表示LCU里像素的個(gè)數(shù); 陽(yáng)03引步驟4 :利用Canny算子將ROI劃分為感興趣平滑區(qū)域ROISR和感興趣紋理區(qū)域ROITR: Ccwnv…<m民OIi云RO-fS民 陽(yáng)的4] "''W (13) 化乂> …巧()/ 臣巧()/7,A)
[0035] 其中,m表示ROISR與RCHTR的劃分闊值,Canny^康示屬于非感興趣區(qū)域的LCU 中邊界像素所占的比例,其計(jì)算方法與Canny胃I的計(jì)算方法相同;
[0036] 步驟5 :自適應(yīng)環(huán)路濾波處理:對(duì)所述圖像帖亮度分量的RONITR和ROITR中的LCU 進(jìn)行環(huán)路濾波;對(duì)所述圖像帖每個(gè)GOP里第0層的色度分量的RONITR和ROITR中的LCU進(jìn) 行環(huán)路濾波。
[0037] 所述步驟1中,邊緣區(qū)域與紋理區(qū)域的加權(quán)值We (X,y)取值為1 ;對(duì)比度掩蓋效應(yīng) 加權(quán)系數(shù)n取值為0.018。
[0038] 本發(fā)明的有益效果:
[0039] 1、本發(fā)明針對(duì)3D-HEVC編碼結(jié)構(gòu),結(jié)合像素域JND模型和Canny算子,對(duì)基于LCU 的ALF算法進(jìn)行優(yōu)化,去除視頻中的感知冗余,提高ALF算法的編碼效率;
[0040] 2、本發(fā)明可W快速找出不要ALF處理的區(qū)域,在不影響質(zhì)量的情況下,大大降低 自適應(yīng)環(huán)路濾波器算法的復(fù)雜度。
【附圖說(shuō)明】
[0041] 圖1是本發(fā)明的流程圖;
[0042] 圖2是對(duì)照實(shí)驗(yàn)處理后的化znan_Hal 12視頻序列圖像;
[0043] 圖3是本發(fā)明處理后的化znan_Hall2視頻序列圖像;
[0044] 圖4是對(duì)照實(shí)驗(yàn)處理后的化znan_Street視頻序列圖像;
[0045] 圖5是本發(fā)明處理后的化znan_Street視頻序列圖像。
【具體實(shí)施方式】:
[0046]W下結(jié)合附圖對(duì)本發(fā)明的實(shí)施例作進(jìn)一步的詳細(xì)說(shuō)明。 W47] 實(shí)施例:
[0048]如圖1所示,一種基于恰可覺(jué)察失真模型的快速自適應(yīng)環(huán)路濾波方法,包括W下 步驟: W例步驟1 :建立JND模型: 陽(yáng)0加]JND(x, y) = Ti(x, y)巧t(x, y)-Ci,t ? min{Ti(x, y), Tt(x, y)} (4)
[0051] (I)式中,Tl(x,y)表示像素I(x,y)所在區(qū)域的亮度掩蓋效應(yīng)產(chǎn)生的最小可覺(jué)察 闊值,其計(jì)算方法為:
//'7托.)')<127 陽(yáng)0巧 巧 127
[0053] (2)式中,7(.t,j)表示像素I(x,y)周?chē)?巧窗口的平均背景亮度值,其計(jì)算方法 為:
[0054]
棋 陽(yáng)化引 (3)式中,B(i?如為5x5的低通濾波器: 'I IIIf I. 2 2 2 I 陽(yáng)化6] 公化j')=I 2 O么I (4) 1 2 2 2 1
[0057] (1)式中,Tt(x,y)表示像素I(x,y)所在區(qū)域的對(duì)比度掩蓋效應(yīng)產(chǎn)生的最小可覺(jué) 察闊值,其計(jì)算方法為:
[0058] Tt(x,y) =n*G(x,y) ?We(x,y) (5)
[0059] 妨式中,We(X,y)表示邊緣區(qū)域與紋理區(qū)域的加權(quán)值,取值為1,n表示對(duì)比度掩 蓋效應(yīng)加權(quán)系數(shù),取值為0.018 ;G(x,y)表示對(duì)像素I(x,y)進(jìn)行四個(gè)不同方向邊緣檢測(cè)后 的最大值,其計(jì)算方法為:
[0060] G(a'..v)= !化化{巧.(啡(技) 先=1'2、3,4、, WW]
幻) -.1 1. 1. 1. I] [1 I 1 1 f 1 2 2 2