两个人的电影免费视频_国产精品久久久久久久久成人_97视频在线观看播放_久久这里只有精品777_亚洲熟女少妇二三区_4438x8成人网亚洲av_内谢国产内射夫妻免费视频_人妻精品久久久久中国字幕

基于聯(lián)合稀疏與結(jié)構(gòu)字典的遙感圖像融合方法與流程

文檔序號(hào):12472063閱讀:406來(lái)源:國(guó)知局
基于聯(lián)合稀疏與結(jié)構(gòu)字典的遙感圖像融合方法與流程
本發(fā)明屬于圖像處理
技術(shù)領(lǐng)域
,具體涉及基于聯(lián)合稀疏與結(jié)構(gòu)字典的遙感圖像融合方法。
背景技術(shù)
:遙感衛(wèi)星在拍攝獲取多光譜(MS)圖像的同時(shí),可獲取同場(chǎng)景的全色(PAN)圖像,其中,多光譜圖像富含光譜信息,但空間分辨率低,清晰度差;全色圖像的空間分辨率高,但光譜分辨率低;因此,如何充分利用多光譜圖像的光譜信息和全色圖像的空間信息獲取高分辨率多光譜圖像,成為遙感圖像融合研究的熱點(diǎn)話題。目前,衛(wèi)星遙感圖像的融合方法大致可歸為四類:基于替代的方法、基于ARSIS思想的方法、基于多分辨率分析的方法和基于稀疏表示的方法。分量替代方法最大的特點(diǎn)是計(jì)算效率高,能保持空間細(xì)節(jié)信息,但很難避免出現(xiàn)光譜扭曲現(xiàn)象;基于ARSIS思想的方法通常能夠很好的保持多光譜圖像的光譜信息,但不足之處是混疊以及局部差異會(huì)導(dǎo)致融合質(zhì)量的下降;而基于多尺度分析方法能更好地保持光譜信息,但是會(huì)產(chǎn)生模糊或者信息扭曲,導(dǎo)致空間信息丟失,同時(shí)對(duì)圖像所有幾何特征表示不全面。稀疏性是近些年提出的一種新型的先驗(yàn)假設(shè),它符合人類的視覺(jué)特性,且稀疏表示能充分利用圖像信號(hào)的內(nèi)部結(jié)構(gòu)信息。最近幾年,在字典學(xué)習(xí)的基礎(chǔ)上,越來(lái)越多的融合方法被提出。現(xiàn)有方法中有利用稀疏表示和ARSIS思想相結(jié)合的融合方法,該類方法首先利用稀疏表示從全色圖像獲取細(xì)節(jié)信息,然后通過(guò)ARSIS融合框架將細(xì)節(jié)信息注入到光譜圖像各波段中,這類方法的融合效果雖得到極大地提高,但存在的不足是:只融合了全色圖像的細(xì)節(jié)信息而忽略了低頻信息。為充分利用圖像內(nèi)部及圖像間存在的結(jié)構(gòu)特性和相關(guān)性,以降低圖像處理的工作量和提高圖像融合的準(zhǔn)確度,本文提出基于聯(lián)合稀疏與結(jié)構(gòu)字典的融合方法(JSRDIP);一方面,充分考慮全色圖像的細(xì)節(jié)信息和低頻信息,使得融合更為全面有效,再者充分利用圖像存在的結(jié)構(gòu)特性,以進(jìn)一步提高圖像融合的質(zhì)量;另一方面,改善遙感圖像融合方法普遍存在的效率低的問(wèn)題。技術(shù)實(shí)現(xiàn)要素:針對(duì)上述現(xiàn)有技術(shù)中存在的缺陷或不足,本發(fā)明的目的在于,提供基于聯(lián)合稀疏與結(jié)構(gòu)字典的遙感圖像融合方法,解決現(xiàn)有技術(shù)中遙感圖像融合不全面、融合質(zhì)量和融合效率低的問(wèn)題。為了實(shí)現(xiàn)上述任務(wù),本發(fā)明采用如下技術(shù)方案予以實(shí)現(xiàn):基于聯(lián)合稀疏與結(jié)構(gòu)字典的遙感圖像融合方法,包括以下步驟:步驟一:獲取多光譜圖像和全色圖像,對(duì)多光譜圖像進(jìn)行上采樣處理得到上采樣圖像;步驟二:對(duì)步驟一所得的上采樣圖像中各波段圖像求均值得到強(qiáng)度分量,將全色圖像與強(qiáng)度分量進(jìn)行匹配得到新的全色圖像;步驟三:采用在線稀疏字典學(xué)習(xí)算法對(duì)步驟一得到的上采樣圖像中各波段圖像以及步驟二得到的新的全色圖像分別訓(xùn)練,獲取對(duì)應(yīng)的結(jié)構(gòu)字典;步驟四:采用聯(lián)合稀疏模型,從步驟二得到的新的全色圖像中提取不同于步驟一得到的上采樣圖像中各波段圖像的特有分量;步驟五:基于ARSIS融合框架,將步驟四得到的特有分量融入到步驟一得到的上采樣圖像的各波段圖像中,得到融合多光譜圖像。本發(fā)明還有如下區(qū)別技術(shù)特征:進(jìn)一步的,步驟一中所述對(duì)多光譜圖像進(jìn)行上采樣處理得到上采樣圖像是指:采用雙三次線性插入方法將多光譜圖像上采樣p倍得到上采樣圖像XMS,其中,p為全色圖像和多光譜圖像空間分辨率的比值。更進(jìn)一步的,p=4。進(jìn)一步的,步驟二的具體步驟包括:步驟2.1:對(duì)步驟一所得的上采樣圖像XMS中各波段圖像求均值,得到強(qiáng)度分量I,即I=[Σj=1kXMSj]/k]]>其中,是XMS第j(j=1,2,…,k)個(gè)波段的光譜圖像,k是波段的個(gè)數(shù);步驟2.2:將步驟一所得的全色圖像與步驟2.1所得的強(qiáng)度分量I進(jìn)行直方圖匹配,得到新的全色圖像XPAN。進(jìn)一步的,步驟四的具體步驟包括:步驟4.1:對(duì)上采樣圖像XMS中各波段圖像和XPAN圖像利用聯(lián)合稀疏建模得到如下式所示的優(yōu)化問(wèn)題:Min||Θ||0s.t.||X-ΨΘ||22≤ϵ]]>利用OMP算法對(duì)上式求解,得到稀疏系數(shù)其中,αCj為公共稀疏系數(shù),為中第j個(gè)波段圖像對(duì)應(yīng)的特有稀疏系數(shù),為全色圖像XPAN對(duì)應(yīng)的特有稀疏系數(shù);步驟4.2:采用類似絕對(duì)值取大的方法對(duì)步驟4.1獲得的全色圖像XPAN對(duì)應(yīng)的特有稀疏系數(shù)進(jìn)行選取,得到融合所需的全色圖像特有稀疏系數(shù)αpj,所述類似絕對(duì)值取大的方法如下式:|αpjU|≥|αjU|αpj=αpjU|αpjU|<|αjU|αpj=0]]>步驟4.3:將步驟4.2獲得的全色圖像特有稀疏系數(shù)αpj重構(gòu),得到所需的特有分量計(jì)算公式如下:XHFj=DP*αpj]]>其中,Dp為全色圖像XPAN經(jīng)過(guò)訓(xùn)練所獲取的結(jié)構(gòu)字典。進(jìn)一步的,步驟五的具體步驟包括:基于ARSIS融合框架,將步驟4.3獲得的特有分量融入到步驟一所得的上采樣圖像XMS的各波段圖像中,得到融合多光譜圖像,融入模型為:XFj=XMSj+XMSj(1/k)Σp=1KXMSpXHFj,j=1,2,...,k]]>其中,為融合后光譜圖像的第j個(gè)波段圖像。本發(fā)明與現(xiàn)有技術(shù)相比,具有以下優(yōu)點(diǎn):(1)本發(fā)明采用聯(lián)合稀疏模型來(lái)提取全色圖像不同于多光譜圖像各波段圖像的稀疏特有分量,充分利用圖像內(nèi)部和圖像間的相關(guān)性,進(jìn)一步降低對(duì)圖像處理的工作量,且提高了全色圖像特有成分重構(gòu)的精度;(2)本發(fā)明采用在線稀疏字典學(xué)習(xí)方法對(duì)全色圖像和多光譜圖像各波段圖像進(jìn)行字典訓(xùn)練,有效利用字典的稀疏特性和原子間的相關(guān)性,進(jìn)一步降低字典訓(xùn)練的復(fù)雜度,提高結(jié)構(gòu)字典的自適應(yīng)性;使得特有分量的重構(gòu)更為準(zhǔn)確,提高圖像融合的質(zhì)量;(3)本發(fā)明在建模求解過(guò)程中充分考慮全色圖像的細(xì)節(jié)信息和低頻信息,使得融合更為全面有效。附圖說(shuō)明圖1是本發(fā)明的融合框架圖。圖2是模擬圖像中不同融合方法對(duì)QuickBird衛(wèi)星圖像融合結(jié)果;其中,圖2(a)為源多光譜圖像,圖2(b)為全色圖像,圖2(c)為參考圖像,圖2(d)為CS_BP方法融合圖像,圖2(e)為CS_OMP方法融合圖像,圖2(f)為DCS方法融合圖像,圖2(g)為SRDIP方法融合圖像,圖2(h)為DIP_OSDL方法融合圖像,圖2(i)為JSRDIP方法融合圖像。圖3是模擬圖像中不同融合方法對(duì)IKONOS衛(wèi)星圖像融合結(jié)果;其中,圖3(a)為源多光譜圖像,圖3(b)為全色圖像,圖3(c)為參考圖像,圖3(d)為CS_BP方法融合圖像,圖3(e)為CS_OMP方法融合圖像,圖3(f)為DCS方法融合圖像,圖3(g)為SRDIP方法融合圖像,圖3(h)為DIP_OSDL方法融合圖像,圖3(i)為JSRDIP方法融合圖像。圖4是實(shí)際圖像中不同融合方法對(duì)QuickBird衛(wèi)星圖像融合結(jié)果;其中,圖4(a)為源多光譜圖像,圖4(b)為全色圖像,圖4(c)為CS_BP方法融合圖像,圖4(d)為CS_OMP方法融合圖像,圖4(e)為DCS方法融合圖像,圖4(f)為SRDIP方法融合圖像,圖4(g)為DIP_OSDL方法融合圖像,圖4(h)為JSRDIP方法融合圖像。圖5是實(shí)際圖像中不同融合方法對(duì)IKONOS衛(wèi)星圖像融合結(jié)果;其中,圖5(a)為源多光譜圖像,圖5(b)為全色圖像,圖5(c)為CS_BP方法融合圖像,圖5(d)為CS_OMP方法融合圖像,圖5(e)為DCS方法融合圖像,圖5(f)為SRDIP方法融合圖像,圖5(g)為DIP_OSDL方法融合圖像,圖5(h)為JSRDIP方法融合圖像。以下結(jié)合附圖和實(shí)施例對(duì)本發(fā)明的具體內(nèi)容作進(jìn)一步詳細(xì)地解釋和說(shuō)明。具體實(shí)施方式為了使本發(fā)明的目的、技術(shù)方案及優(yōu)勢(shì)更加清楚,結(jié)合附圖及實(shí)施例對(duì)本發(fā)明做進(jìn)一步詳細(xì)說(shuō)明。結(jié)合圖1所示的融合框架,本發(fā)明的具體實(shí)現(xiàn)包括如下步驟:步驟一:獲取多光譜圖像和全色圖像,對(duì)多光譜圖像進(jìn)行上采樣處理得到上采樣圖像;使多光譜圖像與全色圖像的尺寸大小相同,以便后續(xù)處理;步驟一中所述對(duì)多光譜圖像進(jìn)行上采樣處理得到上采樣圖像是指:采用雙三次線性插入方法將多光譜圖像上采樣p倍得到上采樣圖像XMS,其中,p為全色圖像和多光譜圖像空間分辨率的比值,p=4;步驟二:對(duì)步驟一所得的上采樣圖像中各波段圖像求均值得到強(qiáng)度分量,將全色圖像與強(qiáng)度分量進(jìn)行匹配得到新的全色圖像;進(jìn)行匹配時(shí)是以多光譜圖像為標(biāo)準(zhǔn),調(diào)節(jié)全色圖像的色調(diào)與反差,以便做進(jìn)一步的運(yùn)算;步驟2.1:對(duì)步驟一所得的XMS中各波段圖像求均值得到強(qiáng)度分量I,以便與全色圖像做匹配,其中I=[Σj=1kXMSj]/k]]>其中,是XMS第j(j=1,2,…,k)個(gè)波段的光譜圖像,k是波段的個(gè)數(shù),k=4;步驟2.2:將步驟一所得的全色圖像與步驟2.1所得的強(qiáng)度分量I進(jìn)行直方圖匹配,得到新的全色圖像XPAN;步驟三:采用在線稀疏字典學(xué)習(xí)(onlinesparsedictionarylearning,OSDL)算法對(duì)步驟一得到的上采樣圖像中各波段圖像以及步驟二得到的全色圖像分別訓(xùn)練,獲取對(duì)應(yīng)的結(jié)構(gòu)字典;利用雙稀疏模型,采用OSDL算法對(duì)步驟一獲得的上采樣圖像XMS中各波段圖像以及步驟二獲得的全色圖像XPAN分別訓(xùn)練以獲取各自對(duì)應(yīng)的結(jié)構(gòu)字典Dj(j=1,2,…,k)和DP。為獲取有效快捷且自適應(yīng)性強(qiáng)的字典,訓(xùn)練過(guò)程中需在字典中添加一些特定約束項(xiàng),雙稀疏模型的約束項(xiàng)即為字典的稀疏特性;在雙稀疏模型中,有效結(jié)構(gòu)字典中的原子為基字典Φ中少數(shù)任意原子的線性組合所構(gòu)成,因此,雙稀疏模型的表達(dá)式為:minA,X12||Y-ΦAX||F2s.t.||xi||0≤p∀i||aj||0=k∀j]]>其中,A∈RL×m和X∈Rm×n分別為稀疏字典和系數(shù)矩陣,xi和aj分別為稀疏系數(shù)和稀疏字典原子,p和k分別為稀疏系數(shù)和字典的稀疏度,基字典Φ∈Rn×L由剪切小波的Kronecker積構(gòu)成,因此,雙稀疏模型中稀疏字典學(xué)習(xí)的表達(dá)式如下:采用在線稀疏字典學(xué)習(xí)算法(OSDL)對(duì)圖像塊進(jìn)行訓(xùn)練,學(xué)習(xí)得到稀疏字典,再與基字典線性構(gòu)成學(xué)習(xí)型結(jié)構(gòu)字典;因在OSDL算法學(xué)習(xí)過(guò)程中采用的是批量處理替代原來(lái)的小圖像塊處理方式,從而減少了稀疏編碼和稀疏字典更新時(shí)二者交替變換的次數(shù),進(jìn)一步降低計(jì)算復(fù)雜度,訓(xùn)練效率得以提高;再者,OSDL算法采用隨機(jī)梯度下降法對(duì)稀疏字典中每個(gè)原子進(jìn)行更新,可增強(qiáng)字典的自適應(yīng)性,可使圖像稀疏求解及重構(gòu)更為準(zhǔn)確,進(jìn)一步提高融合圖像的質(zhì)量;步驟四:采用聯(lián)合稀疏模型(JointSparsityModel,JSM),從步驟二得到的新的全色圖像中提取不同于步驟一得到的上采樣圖像中各波段圖像的特有分量;聯(lián)合稀疏不僅可充分提取全色圖像的特有分量,還可以進(jìn)一步降低計(jì)算的復(fù)雜度,且提取出的特有分量較全面地包含多光譜圖像所缺失的信息;不同傳感器可獲得地物信息之間所存在的冗余信息和互補(bǔ)信息,融合處理就是利用冗余性和互補(bǔ)性來(lái)增加圖像的信息量;在JSM-1模型中,所有圖像都是由一個(gè)稀疏共同分量和一個(gè)稀疏特有分量組成,因此,對(duì)圖像做融合處理時(shí)可轉(zhuǎn)化為將稀疏特有分量融合到新圖像中以盡可能的包含所有待融合圖像的信息;步驟4.1:對(duì)上采樣圖像XMS中各波段圖像和XPAN圖像利用聯(lián)合稀疏建模得到:XMSjXPAN=DcjDj0Dcj0DpαCjαjUαpjU]]>其中,Dcj=[D,Dp,Dj],分析字典D由剪切小波(TheCroppedWavelets)構(gòu)成;令E=blkdiag(Dj,Dp)Ψ=[B,E],則上式轉(zhuǎn)化為如下式所示的優(yōu)化問(wèn)題:Min||Θ||0s.t.||X-ΨΘ||22≤ϵ]]>利用OMP算法對(duì)上式求解,得到稀疏系數(shù)其中,αCj為公共稀疏系數(shù),為中第j個(gè)波段圖像對(duì)應(yīng)的特有稀疏系數(shù),為全色圖像XPAN對(duì)應(yīng)的特有稀疏系數(shù);聯(lián)合稀疏求解得到的特有稀疏系數(shù)用來(lái)重構(gòu)融合所需的全色圖像的特有分量;步驟4.2:由于全色圖像的特有分量無(wú)需全部融入到多光譜圖像各波段中去,因此選取最大活躍度對(duì)應(yīng)的特有稀疏系數(shù)αpj作為融合系數(shù);為了更好地提取所需的特有稀疏系數(shù),采用類似絕對(duì)值取大的方法對(duì)步驟4.1獲得的全色圖像XPAN對(duì)應(yīng)的特有稀疏系數(shù)進(jìn)行選取,得到融合所需的全色圖像特有稀疏系數(shù)αpj,選取方式如下式所示:|αpjU|≥|αjU|αpj=αpjU|αpjU|<|αjU|αpj=0]]>步驟4.3:將步驟4.2獲得的全色圖像特有稀疏系數(shù)αpj重構(gòu),得到所需的特有分量重構(gòu)出的特有分量是為了融入到多光譜圖像中去,以提高多光譜圖像的分辨率,特有分量計(jì)算公式如下:XHFj=DP*αpj]]>其中,Dp為全色圖像XPAN經(jīng)過(guò)訓(xùn)練所獲取的結(jié)構(gòu)字典;步驟五:基于ARSIS融合框架,將步驟四得到的特有分量融入到步驟一得到的上采樣圖像的各波段圖像中,得到融合多光譜圖像;其中,采用ARSIS融合框架是為了使融合圖像很好地保留源圖像的光譜信息;基于ARSIS融合框架,將步驟4.3獲得的特有分量融入到步驟一所得的上采樣圖像XMS的各波段圖像中,得到高分辨率多光譜圖像,融入模型為:XFj=XMSj+XMSj(1/k)Σp=1KXMSpXHFj,j=1,2,...,k]]>其中,為融合后光譜圖像的第j個(gè)波段圖像。實(shí)施例本發(fā)明采用四組衛(wèi)星遙感圖像來(lái)驗(yàn)證所提融合算法的有效性;QuickBird衛(wèi)星可提供空間分辨率為0.7米的全色圖像和空間分辨率為2.8米的多光譜圖像;IKONOS衛(wèi)星提供空間分辨率為1米的全色圖像和空間分辨率為4米的多光譜圖像;其中,多光譜圖像包括紅、綠、藍(lán)和近紅外四個(gè)波段;為更好評(píng)估融合方法的實(shí)用性,本發(fā)明給出模擬圖像實(shí)驗(yàn)和實(shí)際圖像實(shí)驗(yàn),其中,模擬圖像實(shí)驗(yàn)中采用的模擬圖像是通過(guò)對(duì)實(shí)際圖像依次進(jìn)行MTF濾波和下采樣4倍獲得,實(shí)際圖像實(shí)驗(yàn)是直接將真實(shí)圖像進(jìn)行融合。實(shí)驗(yàn)中采用已配準(zhǔn)好的全色圖像和多光譜圖像,其大小分別為256×256和64×64,本發(fā)明主要與基于壓縮感知(CS)、基于分布?jí)嚎s感知(DCS)以及同類采用注入模型(SRDIP)的融合方法進(jìn)行比較;一方面為使實(shí)驗(yàn)對(duì)比分析更準(zhǔn)確,實(shí)驗(yàn)部分將給出原CS方法(CS_BP)以及CS改進(jìn)方法(CS_OMP)作為對(duì)比實(shí)驗(yàn);另一方面為突出結(jié)構(gòu)字典的性能,增加DIP_OSDL融合方法作為對(duì)比試驗(yàn)。CS方法和DCS實(shí)驗(yàn)中,全色圖像和多光譜圖像對(duì)應(yīng)的圖像塊大小分別是8×8和2×2,重疊像素值個(gè)數(shù)分別為1和4,實(shí)驗(yàn)重構(gòu)誤差ε設(shè)為1,其中,CS方法采用的字典為隨機(jī)抽取的圖像塊組成,且字典大小為1000,而DCS所采用的字典包含K-SVD算法訓(xùn)練得到學(xué)習(xí)型字典和分析型字典;SRDIP融合方法實(shí)驗(yàn)中,全色圖像的圖像塊大小為8×8,重疊像素值個(gè)數(shù)為7,字典大小為64,trous小波分解層數(shù)為2,稀疏表示求解誤差為0.01,K-SVD訓(xùn)練字典中,稀疏編碼的稀疏度為6,迭代次數(shù)為10;DIP_OSDL方法選用的全色圖像的圖像塊大小為3×3,像素重疊個(gè)數(shù)為2,字典大小為64,trous小波分解層數(shù)為2,稀疏求解誤差為0.01,采用OSDL算法訓(xùn)練字典時(shí),稀疏編碼的稀疏度為6,稀疏字典的稀疏度為40,迭代次數(shù)為3,其中,高頻結(jié)構(gòu)字典DHF為64×128,低頻結(jié)構(gòu)字典DIF大小為64×64;本文方法選取的全色圖像塊大小為4×4,像素重疊個(gè)數(shù)為3,稀疏求解允許誤差為0.01,字典訓(xùn)練中稀疏字典的稀疏度為40,稀疏編碼的稀疏度為6。模擬圖像實(shí)驗(yàn)效果分析:圖2(a)、(b)和圖3(a)、(b)分別為QuickBird和IKONOS源多光譜圖和的全色圖,圖2(c)和圖3(c)為參考圖像,圖2(e)~(i)和圖3(e)~(i)分別為QuickBird和IKONOS衛(wèi)星融合結(jié)果圖(只顯示RGB三個(gè)波段),每幅圖像中的左下角為局部放大圖;通過(guò)對(duì)原始圖像和融合圖像進(jìn)行視覺(jué)比較,可以看出所有方法都能提高源多光譜圖像的分辨率,但是CS方法融合圖像的顏色發(fā)生較大改變;從圖2(f)~(h)可以看出,其他方法均能很好地保留源多光譜圖像的光譜信息,但這些方法的局部放大圖像出現(xiàn)有塊狀效應(yīng);圖3(g)和圖3(h)可以看出,SRDIP和DIP_OSDL的融合圖像雖然清晰度很高,但是部分地方融合過(guò)度,部分地方融合不到位;而從圖2(i)和圖3(i)可以看到,本發(fā)明在提高多光譜圖像空間分辨率的同時(shí),很好地保留了源圖像的光譜信息,獲得更好、更為自然的融合圖像。通過(guò)對(duì)圖像的分析可以對(duì)融合結(jié)果有比較直觀的認(rèn)識(shí),但單純依靠主觀評(píng)價(jià)很難給出正確判斷,因此,需結(jié)合客觀指標(biāo)共同對(duì)融合結(jié)果進(jìn)行評(píng)估;本發(fā)明采用SSIM、MI、CC、SAM、Q4這五種客觀評(píng)價(jià)指標(biāo)對(duì)圖像進(jìn)行全面地評(píng)估;其中,SSIM通過(guò)從亮度、對(duì)比度和結(jié)構(gòu)這三個(gè)方面的比較,實(shí)現(xiàn)對(duì)融合結(jié)果中每個(gè)波段圖像與參考圖像中每個(gè)波段圖像結(jié)構(gòu)相似的度量;MI用以測(cè)量參考圖像與融合圖像的互相關(guān)信息;CC表示相關(guān)系數(shù),用于測(cè)量?jī)蓚€(gè)圖像對(duì)應(yīng)的波段圖像的光譜和空間信息相關(guān)程度;SAM表示全局光譜扭曲測(cè)量,最優(yōu)值為0;Q4是一種綜合性更強(qiáng)的融合圖像質(zhì)量標(biāo)準(zhǔn),最優(yōu)值為1。表1和表3所示為不同融合方法下模擬圖像融合結(jié)果的客觀指標(biāo);從表1和表3可以看到,本發(fā)明的各方面客觀指標(biāo)較優(yōu)于其他方法,其中,本發(fā)明的SAM值遠(yuǎn)遠(yuǎn)低于CS方法和DCS方法,這是因?yàn)楸景l(fā)明采用基于ARSIS融合框架,所以可以很好地保留源多光譜圖像的光譜信息;同時(shí),本發(fā)明的CC、MI以及SSIM值均遠(yuǎn)遠(yuǎn)高于CS方法,即本文方法融合圖像與參考圖像的相關(guān)性以及所含的互信息量都要遠(yuǎn)遠(yuǎn)高于CS方法。相對(duì)于SRDIP和DIP_OSDL方法,本文方法也呈現(xiàn)出相對(duì)的優(yōu)越性;表2和表4給出各種融合方法的計(jì)算復(fù)雜度,從表中可以看到,本發(fā)明的耗時(shí)遠(yuǎn)遠(yuǎn)低于其他方法,即本發(fā)明的計(jì)算效率有了明顯的提高;綜上,本發(fā)明在保證融合質(zhì)量最佳的情況下,計(jì)算效率也得到極大提高。表1不同融合方法對(duì)QuickBird衛(wèi)星獲得的圖像融合結(jié)果的客觀指標(biāo)表2對(duì)QuickBird衛(wèi)星獲得的圖像進(jìn)行融合所耗時(shí)間表3不同融合方法對(duì)IKONOS衛(wèi)星獲得的圖像融合結(jié)果的客觀指標(biāo)表4對(duì)IKONOS衛(wèi)星獲得的圖像進(jìn)行融合所耗時(shí)間實(shí)際圖像實(shí)驗(yàn)效果分析:圖4(a)、(b)以及圖5(a)、(b)分別表示QuickBird和IKONOS衛(wèi)星圖像的源多光譜圖和全色圖,圖4(c)~(h)和圖5(c)~(h)分別為QuickBird和IKONOS衛(wèi)星融合結(jié)果圖(只顯示RGB三個(gè)波段),每幅圖左下角為融合圖像的局部放大圖;其中,圖4(c)、(d)和圖5(c)、(d)是CS方法的融合結(jié)果,可以看到,相比于其他方法,圖4(c)、(d)和圖5(c)、(d)的對(duì)比度較差,有少許光譜失真,且圖4(d)從整體上看去有些模糊;從圖4(e)和圖5(e)整體來(lái)看,相比于DSC方法,本發(fā)明的融合圖像的空間分辨率較高;對(duì)比圖5(f)~(h)的局部放大區(qū)域可以看到,本發(fā)明得到的融合圖像的輪廓較SRDIP方法和DIP_OSDL方法更稍清晰。實(shí)際圖像實(shí)驗(yàn)中,由于沒(méi)有參考圖像,為有效客觀評(píng)估各融合方法的性能,采用無(wú)參考圖像的客觀評(píng)價(jià)指標(biāo)QNR來(lái)評(píng)價(jià)圖像融合質(zhì)量;QNR包含光譜信息損失指標(biāo)Dλ和空間信息損失指標(biāo)Ds,其中,QNR的最優(yōu)值為1,而Dλ和Ds的最優(yōu)值為0。表5和表7所示為不同融合方法下實(shí)際圖像融合結(jié)果的客觀指標(biāo);從表5和表7可以看到,本發(fā)明融合過(guò)程中產(chǎn)生的光譜信息損失最少,雖然在表5中DIP_OSDL方法的空間信息損失略低于本發(fā)明,但本發(fā)明的無(wú)參評(píng)價(jià)客觀指標(biāo)QNR較其他所有方法是最優(yōu)的;而對(duì)表6和表8的中融合圖像耗時(shí)進(jìn)行分析,本發(fā)明的計(jì)算效率明顯高于其他方法,且本發(fā)明的計(jì)算效率相比無(wú)字典訓(xùn)練的CS方法提高將近一倍。綜上所述,本發(fā)明在很好保留待融合圖像光譜信息的同時(shí),大大提高了融合圖像的空間分辨率,且進(jìn)一步降低融合過(guò)程的計(jì)算復(fù)雜度。表5不同融合方法對(duì)QuickBird衛(wèi)星獲得的圖像融合結(jié)果的客觀指標(biāo)表6對(duì)QuickBird衛(wèi)星獲得的圖像進(jìn)行融合所耗時(shí)間表7不同融合方法對(duì)IKONOS衛(wèi)星獲得的圖像融合結(jié)果的客觀指標(biāo)表8對(duì)IKONOS衛(wèi)星獲得的圖像進(jìn)行融合所耗時(shí)間當(dāng)前第1頁(yè)1 2 3 
當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
义乌市| 准格尔旗| 玛多县| 湟源县| 漯河市| 习水县| 夏津县| 方城县| 曲松县| 梁山县| 西藏| 西峡县| 平阴县| 太保市| 巴中市| 安吉县| 通河县| 德庆县| 宁化县| 新乡市| 马关县| 马龙县| 启东市| 广宗县| 晋中市| 双流县| 临武县| 徐水县| 五大连池市| 阿鲁科尔沁旗| 湖南省| 偃师市| 双辽市| 大方县| 彭泽县| 泰安市| 托克托县| 远安县| 循化| 慈利县| 中超|