<sup id="83vmb"></sup>

  • <span id="83vmb"></span><bdo id="83vmb"><meter id="83vmb"></meter></bdo>
    <sup id="83vmb"><table id="83vmb"><em id="83vmb"></em></table></sup>
    <bdo id="83vmb"><del id="83vmb"></del></bdo>
  • 国产香蕉97碰碰久久人人,久久精品无码一区二区小草,在线看片免费人成视频久网 ,日本黄页网站免费大全,强被迫伦姧高潮无码bd电影,日韩精品一区二区三区无,久久国产国内精品国语对白,好吊视频在线一区二区三区
    優勝從選擇開始,我們是您最好的選擇!—— 中州期刊聯盟(新鄉市博翰文化傳媒有限公司)
    0373-5939925
    2851259250@qq.com
    我要檢測 我要投稿 合法期刊查詢
    您的位置:網站首頁 > 優秀論文 > 科技論文 > 正文

    加入特征空間信息的視覺SLAM閉環檢測改進方法

    作者:羅升斯,黎展榮來源:《企業科技與發展》日期:2018-07-04人氣:2548

    SLAM(同步定位與地圖構建)指自主移動機器人根據環境構建地圖并確定自身姿態和位置。相機能獲得廣泛優質的信息(分辨率足夠高、圖像顏色豐富等),且輕便價格低,基于相機的視覺SLAM方法成為近十年來的研究熱點。閉環檢測是視覺SLAM的一項重要過程,指判斷自主移動機器人是否回到曾經到達過的地點,它是減少機器人位姿累積誤差和地圖不確定性的關鍵步驟。閉環檢測有三種方式:map to map、image to image、map to image,實際常采用image to image方式,即序列圖像匹配方法。

        詞袋(bag of words,以下使用簡稱BoW)作為主流的圖像相似性匹配方法,被廣泛利用和改進優化。Josef Sivi等人使用BoW,結合文本檢索中的TF-IDF(term frequency–inverse document frequency)模式分配視覺單詞權重,并加入停止詞,識別視頻中圖片里的相似物體,提高了特征查詢的速度。David Nister等人提出將BoW的視覺單詞作為構建樹結構的節點,假設節點個數為n,它的查找時間復雜度為O(log n),和時間復雜度為O(n2)的蠻力搜索方法相比,大大提高了特征搜索的效率。Dorian Galvez-López等人使用二進制描述子BRIEF(Binary Robust Independent Elementary Features,二進制魯棒的獨立基本特征)替換常用的SIFT(Distinctive Image Features from Scale-Invariant Keypoints,尺度不變關鍵點的獨特圖像特征)或SURF(Speeded-Up Robust Features,加速穩健特征),提高了特征匹配速度并節省特征占用空間。但上述方法均忽略特征空間聯系,存在較大的投影量化誤差,造成感知歧義,即相同單詞投影到不同區域,不同單詞卻投影到相同區域,邊緣單詞發生此種情況的概率更大。

        為提升圖像匹配的準確率,開展了對BoW方法視覺單詞添加空間信息的研究。Nishant Kejriwal等人用128維的SURF描述子表示圖像特征,在使用視覺字典樹結構的BoW模型基礎上加入不同特征點同時出現和空間鄰近關系的信息,然后用貝葉斯概率方法計算閉環。該方法應用在閉環檢測中,取得了比傳統BoW方法更高的準確率,但同時增加了較大時間復雜度。Svetlana Lazebnik等人提出將圖像分為金字塔多個層級,每層劃分不同大小的區域,分別統計并量化各層區域特征,然后通過特征向量相似度來確定匹配圖像,提升了圖像匹配準確率。李博等人提出帶TF-IDF權重的視覺字典樹和改進的金字塔得分匹配模型,從視覺字典樹的下層往上層計算節點相似性增量匹配核函數,通過結合不同層次單詞關聯性,降低投影量化歧義性。該方法改善BoW的視覺單詞本受單詞數目限制導致性能不佳的不足,提升了檢索效率并減小匹配誤差。因圖像拍攝視角差異等原因,上述針對視覺單詞空間關系的改進方法魯棒性不高,同時會明顯增加比較特征空間關系的時間開銷。

    本文將用于圖像相似性匹配的BoW方法作為改進對象,加入均勻劃分4個區域的特征空間信息,通過比較全排列特征空間向量,提高閉環檢測的準確率,且保證較高效率。

    1 系統總體結構

    本文對視覺SLAM的閉環檢測處理,主要分為三個過程:提取圖像特征點、創建BoW模型、使用全排列特征空間信息檢測確認閉環。具體流程為:首先利用ORB方法提取圖像特征點,以此創建BoW,通過視覺字典樹結構表示BoW,然后計算比較圖像庫圖像(機器人曾走過區域獲取到的圖像集合)和查詢圖像間向量的相似度。將相似度較大(即相似距離較小)的圖像庫圖像作為候選圖像,計算比較它們和查詢圖像特征空間全排列向量的距離,選取距離最小值對應的圖像對,作為閉環。本文所設計的閉環檢測過程如圖1所示。

    2 基于BoW模型的閉環檢測方法

    2.1 ORB特征提取方法

        特征提取是物體識別、圖像檢索等常見應用的前提步驟,為BoW的創建提供特征點。SIFT特征具有平移、旋轉、縮放等不變性,是較魯棒的方法。然而該特征提取方法效率較低,不能較好滿足SLAM實時性要求。折中于速率和穩定性的ORB方法,是SLAM特征提取的較好選擇。ORB分為特征點檢測FAST(Features from Accelerated Segment Test,加速分段測試的特征)方法和改進的特征點描述BRIEF方法兩步處理過程。如圖2,FAST方法比較被檢測像素點和以其為圓心的圓上16個像素點的灰度差值,如果有至少連續12個像素點與中心點的灰度差值同時小于閾值或者同時大于閾值,則被檢測的像素點為特征點,否則不是特征點。該方法簡單可行,效率較高。

        BRIEF的基本思想是將特征點周圍滿足某一特定分布規律像素點對的灰度值一一比較,大于關系用1表示,小于關系用0表示,將比較結果有序組成一串由0、1表示的向量,即得到特征描述子,它由二進制數字組成,節省了特征存儲空間,使用位異或運算符可提升特征間的比較速度。在ORB方法中,以圖像塊(假設用A表示)幾何中心和形心的連線作為特征點方向,以此保證BRIEF描述子具有旋轉不變性。

    2.2 創建BoW模型

        借鑒于文本檢索中單詞反映文本重要信息的作用,將表示圖像局部信息的特征點聚類成無序視覺單詞,將它們組成詞袋,用來表征圖像。對特征點進行k-means聚類得到聚類中心點(視覺單詞)后,對視覺單詞分配TF-IDF權重。

        其中,nid表示第i個視覺單詞在圖像d中出現的頻數,nd表示圖像d的視覺單詞總數,N表示所有圖像總數,Ni表示第i個視覺單詞在所有圖像中出現的頻數。權重值被加入到特征索引結構中,將圖像的各個特征點量化到與其距離最近的視覺單詞中,統計各視覺單詞的得分,即特征量化到各視覺單詞的權重值之和,將各視覺單詞得分組成向量,用來表示該圖像。

    2.3 基于BoW創建視覺字典樹

        對于BoW方法,需要使用數量巨大的視覺單詞,才能保證較高的圖像匹配準確度,此時查找效率比較低。為了提高查找效率,采用樹結構的節點來組織不同聚類層次的視覺單詞,葉子節點存儲圖像特征點,查找匹配特征點的過程為從根節點往下搜索到葉子節點。然而,使用視覺字典樹方法同樣會帶來較大的感知歧義問題。為了改進BoW模型局部特征匹配造成較大量化誤差的不足,提出對圖像比較全排列特征空間向量信息的方法。

    3 分塊特征空間向量全排列比較方法 

    3.1 均勻劃分4塊區域的特征空間信息

        因視角差異等因素影響,包含相似內容的不同圖像,它們的分塊區域不一定按序一一對應,這種情況導致基于金字塔空間的圖像匹配方法準確性不高[12]。將圖像分成均勻的4塊區域,從左到右、從上到下分別編號為1,2,3,4。如圖3所示,不同符號表示不同的視覺單詞,(a)為某時刻相機獲取圖像,(b)為移動機器人再次到達(a)所到過地點時相機獲取的圖像,因這兩個不同時刻相機拍攝角度不一致,(a)中2和4區域分別和(b)中的1和3區域有較高對應度。對于這種情況,將圖像的各區域兩兩比較,才能得到更真實的匹配結果。采用均勻劃分4塊區域的特征空間全排列向量比較方法,既能利用特征空間關聯信息彌補BoW匹配方法易造成感知歧義的不足,又能改進金字塔匹配方法導致效率較低和魯棒性不高的問題。

        在對圖像特征點聚類構成視覺單詞后,記錄視覺單詞的位置。統計各區域中特征量化到各個視覺單詞的得分:Sijk,它表示圖像i的特征量化到第j個區域的第k個視覺單詞得分。假設視覺單詞數目為n,圖像i的每個區域特征空間向量為,4個區域的向量組合成種特征空間全排列向量:,其中且。該向量就是查詢圖像的特征空間信息,用于與圖像庫圖像中劃分4個區域按序排列的特征空間信息比較相似性,確定最優閉環。

    3.2 計算閉環 

        閉環檢測過程中,先判斷前一時刻圖像和當前圖像的相似值是否小于設定閾值,決定是否進一步處理當前圖像。如果需要,使用BoW方法初步篩選出與查詢圖像的向量距離小于閾值的候選閉環圖像。向量間距離值計算如下。假設圖像庫圖像x的向量表示為Vx,查詢圖像y的向量表示為Vy,歸一化兩幅圖像向量并計算L1-范數距離的公式為:

        根據距離確定圖像相似度高低,距離越小,代表兩張圖像越相似,反之圖像越不相似。然后將查詢圖像的全排列向量分別與候選閉環圖像特征空間向量進行相似性比較,使用公式(5)的L1-范數距離公式計算它們向量間的距離。最相似兩張圖像的距離值為BoW方法和特征空間信息方法計算距離的最小值,即,該值對應的候選閉環圖像為選出的最優閉環。

    4 實驗與結果分析

        本實驗所用軟硬件配置如下:電腦CPU為i7處理器,主頻是2.6GHz,內存16G,系統為Ubuntu 16.04 LTS,采用C++作為實驗編程語言。本文的實驗對象為New College數據集和City Centre數據集,它們是SLAM閉環檢測的標準數據集,由牛津大學移動機器人實驗室對室外大型場景采集而來。這兩個數據集帶有真實閉環信息,可用來檢驗實驗測試效果。 

        分別使用ORB方法和SURF方法(對SIFT的改進,能加速特征提取)[13],對New College數據集不同時刻同一地點構成閉環的兩張圖像0745.jpg和1563.jpg進行特征提取和匹配實驗,用圓圈標記檢測到的特征點。調整兩種方法的特征檢測閾值,設定ORB方法的閾值為使它們檢測到數目接近的特征點,然后比較特征檢測效果,如圖4所示。

    圖5是兩種特征提取方法對上述閉環圖像對的特征匹配效果,匹配點間用線段相連。選擇New College和City Centre數據集的各10對閉環圖像,采用這兩種特征提取方法進行對比實驗,將誤匹配點初步過濾后,結果列于表1。通過該實驗可知,雖然ORB方法特征檢測的魯棒性不及SURF方法,但它也能較準確地提取圖像特征,且用時明顯遠遠少于SURF方法,因而更好地滿足SLAM對圖像特征提取準確性和效率的要求。

    數據集

    10組閉環圖像

    特征提取方法

    平均特征點數

    平均特征提取時間

    平均特征匹配時間

    New College

    ORB

    468個

    10.462 ms

    7.197 ms

    SURF

    220.867 ms

    14.307 ms

    City Centre

    ORB

    396個

     

    10.212 ms

    2.535 ms

    SURF

    180.518 ms

    9.340 ms

        利用基于視覺字典樹結構的BoW方法量化表示圖像后,選出距離小于設定閾值的候選閉環,因相機平移偏轉和噪聲等影響,這些圖像難免會存在視覺混淆現象。單從BoW方法得出的圖像匹配得分大小選出候選閉環,存在較大的局限性,本文采用特征空間信息方法加以改進。分別對New College和City Centre數據集的查詢圖像和對應候選閉環圖像,使用BoW方法和劃分4塊區域特征空間方法計算相似度,統計實驗結果列于表2。

     

    實驗數據集

    算法

    BoW

    特征空間信息

    真實閉環圖像間平均距離值

    錯誤閉環圖像間平均距離值

    閉環檢測正確率

    閉環檢測計算時間/每張圖片

    真實閉環圖像間平均距離值

    錯誤閉環圖像間平均距離值

    閉環檢測正確率

    閉環檢測計算

    時間/每張圖片

    New College

    0.106

    0.242

    90.322%

    36.321ms

    0.073

    0.235

    95.174%

    36.513ms

    City Centre

    0.158

    0.302

    83.957%

    31.650ms

    0.112

    0.289

    87.435%

    31.832ms

    表2  BoW和特征空間信息方法比較結果

        針對New College數據集的實驗顯示,劃分4塊特征空間方法明顯比BoW方法計算的真實閉環圖像間平均距離小,小約31.13%;雖然前者計算的錯誤閉環圖像間平均距離較小,但只小了約2.89%。這說明前者對相似圖像識別度明顯比后者更高,兩者對非相似圖像識別度基本一致。最終前者的閉環檢測正確率比后者高約5.0%,時間僅增加約0.65%。City Centre數據集圖像整體偏暗,檢測到的特征點較少,導致圖像混淆度較高。在此數據集實驗中,劃分4塊特征空間方法和BoW相比,前者計算的真實閉環圖像間平均距離比后者小約29.11%,錯誤閉環圖像間平均距離只比后者小了約4.30%。同樣說明前者對相似圖像識別度更高,而兩者對非相似圖像識別度基本相似。前者的閉環檢測正確率比后者高約3.5%,時間僅增加約0.58%。因而,特征空間信息方法優于BoW方法。這是因為特征空間信息方法統計了不同區域的特征信息,相似圖像間的這些特征信息理應比較一致,對視角偏轉圖像間的匹配,全排列向量比較具有更高魯棒性,而非相似圖像間不具有這樣的特性。特征空間信息方法降低了因視角偏轉、噪聲等帶來的感知偏差,提高了閉環檢測正確率。而僅需查詢圖像全排列特征空間向量與候選圖像特征空間向量比較帶來的較小時間代價。

    5 結論

        視覺SLAM閉環檢測中,使用ORB特征提取方法,能快速且較魯棒地為構建BoW提供特征點,通過視覺字典樹結構快速查詢圖像特征。本文通過全排列特征空間向量比較圖像間相似性,和BoW方法相比,提高了圖像匹配的準確率和魯棒性,處理速度符合實時性要求,可較好地保證閉環檢測的性能。未來將進一步挖掘圖像特征間更有效的空間聯系信息,或結合其它減小圖像感知歧義的方法,進一步提高閉環檢測的準確率。



    本文來源:《企業科技與發展》:http://www.007hgw.com/w/qk/21223.html

    網絡客服QQ: 沈編輯

    投訴建議:0373-5939925????投訴建議QQ:

    招聘合作:2851259250@qq.com (如您是期刊主編、文章高手,可通過郵件合作)

    地址:河南省新鄉市金穗大道東段266號中州期刊聯盟 ICP備案號:豫ICP備2020036848

    【免責聲明】:中州期刊聯盟所提供的信息資源如有侵權、違規,請及時告知。

    版權所有:中州期刊聯盟(新鄉市博翰文化傳媒有限公司)

    關注”中州期刊聯盟”公眾號
    了解論文寫作全系列課程

    核心期刊為何難發?

    論文發表總嫌貴?

    職院單位發核心?

    掃描關注公眾號

    論文發表不再有疑惑

    論文寫作全系列課程

    掃碼了解更多

    輕松寫核心期刊論文

    在線留言
    主站蜘蛛池模板: 日韩中文字幕国产精品| 亚洲国产精品国自产电影| 久久动漫精品| 熟女女同亚洲女同中文字幕| 含羞草亚洲AV无码久久精品| 成人无码区免费视频| 精品中文人妻在线不卡| 99欧美日本一区二区留学生| 乱伦一区二| 亚洲国产成人不卡高清麻豆| 亚洲AV永久无码精品导航| 口爆少妇在线视频免费观看| 免费高清a毛片| 亚洲中文字幕亚洲中文精| 亚洲精品午夜天堂网页| 亚洲AV成人片不卡无码| 欧美成人一区午夜福利在线| 日本高清视频在线www色| 日本久久一区二区三区高清| 国产精品自在拍首页视频8| 日韩亚洲欧美在线com| 欧美肥老太牲交大战| 十八禁午夜福利免费网站| 全部免费毛片免费播放| 国产91视频观看| 亚洲最大色综合成人av| 亚洲爆乳大丰满无码专区| 国产成本人片免费a∨短片| 美腿丝袜亚洲综合第一页| 人妻 日韩 欧美 综合 制服| 99精品在线视频观看| 国产精品流白浆喷水| 国产成人啪精品视频免费APP| 日韩视频一区二区三区视频 | 91精品国产高清久久久久久g| 亚洲天堂网站在线| 久久久无码人妻精品无码| 国产女人综合久久精品视| 第一区免费在线观看| 亚洲熟女一区二区av| 亚洲熟妇中文字幕五十路|