两个人的电影免费视频_国产精品久久久久久久久成人_97视频在线观看播放_久久这里只有精品777_亚洲熟女少妇二三区_4438x8成人网亚洲av_内谢国产内射夫妻免费视频_人妻精品久久久久中国字幕

基于Xtion攝像機(jī)的室內(nèi)機(jī)器人視覺里程計(jì)實(shí)現(xiàn)方法

文檔序號(hào):6232380閱讀:805來源:國(guó)知局
基于Xtion攝像機(jī)的室內(nèi)機(jī)器人視覺里程計(jì)實(shí)現(xiàn)方法
【專利摘要】本發(fā)明涉及一種基于Xtion攝像機(jī)的室內(nèi)機(jī)器人里程計(jì)實(shí)現(xiàn)方法,該方法為:首先通過安裝在機(jī)器人上的Xtion攝像機(jī)對(duì)機(jī)器人前方的視場(chǎng)進(jìn)行信息采集,獲取空間點(diǎn)的RGB信息和三維坐標(biāo)信息。然后基于SIFT特征匹配算法并結(jié)合空間點(diǎn)的PFH(點(diǎn)特征直方圖)三維特征,對(duì)采集的序列圖像進(jìn)行粗特征點(diǎn)匹配,并使用RANSAC(隨機(jī)采樣一致性)剔除粗匹配中的誤匹配點(diǎn),得到精確匹配點(diǎn)。最后建立方程組,利用最小二乘法求解出機(jī)器人的運(yùn)動(dòng)參數(shù)。本方法使用Xtion攝相機(jī)進(jìn)行信息采集,能夠直接獲取空間點(diǎn)的三維信息,并且利用空間點(diǎn)的紋理特征和三維特征進(jìn)行特征提取和匹配,從而顯著提高了機(jī)器人定位的效率和精度。
【專利說明】基于Xtion攝像機(jī)的室內(nèi)機(jī)器人視覺里程計(jì)實(shí)現(xiàn)方法

【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及室內(nèi)移動(dòng)機(jī)器人自主導(dǎo)航【技術(shù)領(lǐng)域】,尤其是一種應(yīng)用于室內(nèi)環(huán)境中輪 驅(qū)動(dòng)式移動(dòng)機(jī)器人自主導(dǎo)航技術(shù)中的視覺里程實(shí)現(xiàn)方法。

【背景技術(shù)】
[0002] 在室內(nèi)移動(dòng)機(jī)器人的研究中,實(shí)時(shí)獲得機(jī)器人高精度的運(yùn)動(dòng)參數(shù)是極其重要的, 關(guān)系到機(jī)器人導(dǎo)航、避障和路徑規(guī)劃等任務(wù)的實(shí)現(xiàn)。由于機(jī)器人行進(jìn)過程中碰到障礙物輪 子存在長(zhǎng)期磨損打滑現(xiàn)象,使得光電碼盤測(cè)速電機(jī)等設(shè)備不能準(zhǔn)確測(cè)定機(jī)器人的位移準(zhǔn)確 信息;采用GPS定位,存在分辨率低,且在室內(nèi)的信號(hào)弱,不適合于室內(nèi)移動(dòng)機(jī)器人。
[0003] 視覺里程計(jì)通過采集分析相關(guān)圖像序列,來確定機(jī)器人位置和朝向,可以彌補(bǔ)上 述的問題,增強(qiáng)了機(jī)器人在任何表面以任何方式移動(dòng)時(shí)的導(dǎo)航精度。傳統(tǒng)的視覺里程計(jì)通 過單目照相機(jī)、雙目照相機(jī)或者全向照相機(jī)獲取圖像,通過坐標(biāo)系的轉(zhuǎn)換獲取空間點(diǎn)的三 維信息,并通過圖像RGB信息對(duì)兩幀圖像進(jìn)行特征提取和匹配從而獲取機(jī)器人的運(yùn)動(dòng)參 數(shù)。在獲取空間點(diǎn)的三維信息時(shí),由于照相機(jī)鏡片誤差和坐標(biāo)系的轉(zhuǎn)換,使得計(jì)算過程復(fù) 雜、效率低并且精度不高。在對(duì)圖像特征提取、匹配時(shí)由于只利用了圖像的RGB信息,丟失 了三維信息,常常出現(xiàn)錯(cuò)誤匹配的情況。


【發(fā)明內(nèi)容】

[0004] 本發(fā)明的目的是提供一種基于xtion攝像機(jī)的室內(nèi)移動(dòng)機(jī)器人視覺里程計(jì)實(shí)現(xiàn) 方法,該方法利用Xtion攝相機(jī),能夠直接獲取空間點(diǎn)的三維信息和RGB信息,并且利用提 取空間點(diǎn)的紋理特征和三維特征進(jìn)行匹配,從而顯著提高了機(jī)器人定位的效率和精度。
[0005] 為實(shí)現(xiàn)上述目的,本發(fā)明采用以下方案實(shí)現(xiàn):該方法包括以下步驟:
[0006] 步驟S01 :通過安裝在機(jī)器人上的Xtion攝像機(jī)對(duì)機(jī)器人前方的視
[0007] 場(chǎng)進(jìn)行信息采集,獲取空間點(diǎn)的RGB信息和三維坐標(biāo)信息;
[0008] 步驟S02 :利用SIFT特征匹配算法并結(jié)合空間點(diǎn)的Ρ--三維特征,對(duì))(tion所采 集到相鄰兩幅圖像間的特征點(diǎn)進(jìn)行匹配;
[0009] 步驟S03 :使用RANSAC剔除匹配中的誤匹配點(diǎn);
[0010] 步驟S04 :獲得前后相鄰兩幀圖像的匹配點(diǎn)

【權(quán)利要求】
1. 一種基于xtion攝像機(jī)的室內(nèi)機(jī)器人視覺里程計(jì)實(shí)現(xiàn)方法,其特征在于包括以下步 驟: 步驟S01 :通過安裝在機(jī)器人上的Xtion攝像機(jī)對(duì)機(jī)器人前方的視場(chǎng)進(jìn)行信息采集,獲 取空間點(diǎn)的RGB /[目息和二維坐標(biāo)彳目息; 步驟S02 :利用SIFT特征匹配算法并結(jié)合空間點(diǎn)的Ρ--三維特征,對(duì)Xtion所采集到 相鄰兩幅圖像間的特征點(diǎn)進(jìn)行匹配; 步驟S03 :使用RANSAC剔除匹配中的誤匹配點(diǎn); 步驟S04 :獲得前后相鄰兩幀圖像的匹配點(diǎn)
,其中上角 標(biāo)P代表前一幀圖像,c代表后一幀圖像,i為匹配點(diǎn)數(shù)目;建立方程組
其中R為旋轉(zhuǎn)矩陣,T為平移矢量;利用最小二乘法即可求解出機(jī)器人的運(yùn)動(dòng)參數(shù)。
2. 根據(jù)權(quán)利要求1所述的基于Xtion攝像機(jī)的室內(nèi)機(jī)器人視覺里程計(jì)實(shí)現(xiàn)方法,其特 征在于:所述特征點(diǎn)匹配具體包括如下步驟 : 1) 特征點(diǎn)檢測(cè):在圖像二維平面空間和DoG尺度空間中同時(shí)檢測(cè)局部極值以作為特征 點(diǎn),DoG算子定義為兩個(gè)不同尺度的高斯核的差分,DoG算子如式(1)所示:
其中,G(x,y,〇 )為尺度可變高斯函數(shù),
(X,y)為空間坐 標(biāo),〇為尺度坐標(biāo),I (X,y)為原圖像,L(x, y, σ )為尺度空間。 在檢測(cè)尺度空間極值時(shí),某個(gè)像素需要跟同一尺度的周圍領(lǐng)域的8個(gè)像素以及相鄰尺 度對(duì)應(yīng)位置的領(lǐng)域9X2個(gè)像素總共26個(gè)像素進(jìn)行比較,以確保在尺度空間和2維圖像空 間都能檢測(cè)到局部極值; 2) 特征點(diǎn)描述,即建立特征向量,其中包括SIFT特征向量和Ρ--三維特征向量; SIFT特征向量:每個(gè)關(guān)鍵點(diǎn)由2X2共4個(gè)種子點(diǎn)構(gòu)成,每個(gè)種子點(diǎn)包含8個(gè)方向向量 信息;對(duì)每個(gè)關(guān)鍵點(diǎn)采用4X4共16個(gè)種子點(diǎn)來描述,以產(chǎn)生128個(gè)數(shù)據(jù),即最后每個(gè)關(guān)鍵 點(diǎn)建立128維的SIFT特征向量; Ρ--三維特征向量:利用KD數(shù)尋找每個(gè)關(guān)鍵點(diǎn)附近K個(gè)點(diǎn),并求出這些點(diǎn)在空間坐標(biāo) 系中的法線向量η ;對(duì)于關(guān)鍵點(diǎn)與其附近K個(gè)點(diǎn),取其所有互相兩個(gè)點(diǎn)組合,根據(jù)判定 〈叫,Ρ』-Ρ,與〈η』,的大小來設(shè)置原點(diǎn)Ps和目標(biāo)點(diǎn)P t,其中叫和η』分別為對(duì)應(yīng)Pi和Ρ」 的法向量,若前者大則記Ps = Pi, Pt = Ρ」,反之記Ps = Ρ」,Pt = Pi ; 根據(jù)上述各點(diǎn)建立局部坐標(biāo)系
在這個(gè)坐標(biāo)系下計(jì)算三個(gè)參數(shù):
,將每個(gè)參數(shù)化分為5個(gè)子區(qū)間并建立35個(gè)區(qū)間的直方圖中,每對(duì) 點(diǎn)的三個(gè)參數(shù)(α,Φ,Θ)為所對(duì)的應(yīng)直方圖區(qū)間加一,統(tǒng)計(jì)所有點(diǎn)后所產(chǎn)生的直方圖進(jìn) 行歸一化,即為125維Ρ--三維特征向量; 3) 進(jìn)行特征匹配以獲取候選匹配點(diǎn):當(dāng)兩幀圖像的SIFT特征向量和FPH三維特征向 量生成后,下一步采用關(guān)鍵點(diǎn)特征向量間的歐式距離來作為兩幀圖像中關(guān)鍵點(diǎn)的相似性判 定度量;取兩幀圖像歐式距離最近的前兩對(duì)關(guān)鍵點(diǎn),在這兩對(duì)關(guān)鍵點(diǎn)中,如果最近的距離除 以次近的距離少于某個(gè)比例閾值,則接受這一對(duì)匹配點(diǎn); 4) 消除誤匹配:采用RANSAC算法去除外點(diǎn),RANSAC算法是通過多次隨機(jī)抽取一定的樣 本對(duì)參數(shù)進(jìn)行估計(jì),先得出初始參數(shù)模型,然后根據(jù)估計(jì)參數(shù)將所有數(shù)據(jù)進(jìn)行分類,一部分 數(shù)據(jù)在設(shè)定誤差范圍內(nèi),則稱為內(nèi)點(diǎn),反之稱為外點(diǎn),經(jīng)過多次迭代計(jì)算出最優(yōu)模型參數(shù)。
3.根據(jù)權(quán)利要求1所述的基于Xtion攝像機(jī)的室內(nèi)機(jī)器人視覺里程計(jì)實(shí)現(xiàn)方法,其特 征在于:所述最小二乘法求解出機(jī)器人的運(yùn)動(dòng)參數(shù)方法如下: 求解最小二乘解使得I iLHRPpi+T) | |2最小,其中Ppi和乙為相鄰兩序列 圖像中的前一幀圖像和后一幀圖像,i為對(duì)應(yīng)匹配點(diǎn)數(shù);首先建立協(xié)方差矩陣
對(duì)應(yīng)匹配點(diǎn)數(shù);然后 對(duì)矩陣Σ ep進(jìn)行特征值分解Σ ep = UDV,其中U,V為酉矩陣,
為奇異值矩陣,式中屯為非零奇異值,記
;最后求解旋轉(zhuǎn)矩 陣R = USV,帶入原方差即可求解平移矢量T。
【文檔編號(hào)】G01C21/00GK104121902SQ201410301943
【公開日】2014年10月29日 申請(qǐng)日期:2014年6月28日 優(yōu)先權(quán)日:2014年6月28日
【發(fā)明者】何炳蔚, 鄒誠(chéng), 林昌, 劉麗萍 申請(qǐng)人:福州大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
即墨市| 嘉鱼县| 淳化县| 新乐市| 眉山市| 朝阳市| 丹江口市| 镇原县| 枣庄市| 宣化县| 陆河县| 南宫市| 行唐县| 城口县| 荔浦县| 夏邑县| 乌苏市| 泾阳县| 蒲城县| 建平县| 阿克| 射阳县| 三门峡市| 尼勒克县| 大名县| 平舆县| 建水县| 金阳县| 林口县| 台东市| 咸丰县| 舟曲县| 巴彦县| 韶山市| 清丰县| 东乡族自治县| 三门峡市| 荃湾区| 仁化县| 昭觉县| 老河口市|