目前用于全球定位的導(dǎo)航系統(tǒng)主要基于衛(wèi)星,其精度取決于用于計算和定位的衛(wèi)星數(shù)量。例如,衛(wèi)星信號可能會因高層結(jié)構(gòu)而減弱或受阻,從而導(dǎo)致導(dǎo)航系統(tǒng)的精度降低。這對無人機的使用造成了限制。為了提高定位精度和減少定位誤差,全球定位系統(tǒng)(GPS)通常與慣性導(dǎo)航系統(tǒng)(INS)集成。然而,對人為干擾的敏感性和對衛(wèi)星技術(shù)的依賴導(dǎo)致GPS/INS組合系統(tǒng)的定位精度不足。
解決這個問題的根本辦法是建立一個自主導(dǎo)航系統(tǒng)?,F(xiàn)有的視覺模式識別方法基于逐步獲取研究地形數(shù)據(jù)的過程,該過程定義了系統(tǒng)分析方法,原理如圖1所示。
圖1 圖像識別和圖像分類在無人機導(dǎo)航系統(tǒng)中的應(yīng)用示意圖
●首先,將二維點云投影到物體(道路、建筑物或其他物體)的圖像上,自動創(chuàng)建地形的數(shù)字模型,并將物體的假設(shè)創(chuàng)建為地面上的不連續(xù)。這是使用圖像處理工具、線性代數(shù)和數(shù)學(xué)形態(tài)學(xué)完成的。
● 之后,道路、建筑物和其他對象的圖像會自動分割,去除小而孤立的區(qū)域。結(jié)果是一個帶有標記的圖像,該標記包含每個分割對象的唯一標識符。然后計算每個對象的幾何特征和上下文特征,并進行分類。
● 然后,將創(chuàng)建一個類圖像,其中包含每個分割對象的類別。如果相關(guān)對象屬于同一類,則在兩個不同的圖像中使用標簽和類非常有用。
●最后,將標簽和類別圖像重新投影到二維點云中,以獲得最終結(jié)果。
利用攝影中的輪廓分析算法可以識別圖像。輪廓分析是描述、存儲、識別、比較和搜索圖形圖像/對象的重要且非常有用的方法之一。有一種內(nèi)置的視覺算法,可以使用可靠的全局-局部對象模型對二維和三維對象進行長期任意跟蹤,如圖2所示。
圖2 城市(A)和開放(B)區(qū)域等高線視覺方法的示意圖
在這里,黃色箭頭強調(diào)可以被識別為具有幾何形狀特征的物體:清晰的輪廓、直線的扭結(jié)角度和已知的直線比例。無人機導(dǎo)航系統(tǒng)中考慮的方法包括三個模塊:1.全局匹配和局部跟蹤(GMLT);2.局部幾何濾波器(LGF);3.局部異常因子(LOF)。算法原理如圖3所示:
圖3 算法的原理圖
大量無人機飛行實驗表明,該視覺跟蹤器在圖像分辨率為640×512的i7處理器上實現(xiàn)了每秒35幀以上的實時幀速率,性能優(yōu)于最流行的最先進跟蹤器。當(dāng)前最好的邊界檢測方法是Canny邊緣檢測器,包括以下步驟:第一步:搜索漸變;第二步:非最大抑制;第三步:雙閾值濾波;第四步:通過滯后進行邊緣跟蹤,如圖4所示:
圖4 通過邊界檢測評估邊緣檢測框架的說明
這種方法很容易實現(xiàn),但它的顯著缺點是對地形的最小變化很敏感,這可能會導(dǎo)致輪廓的強烈變化。這個問題可以通過使用圖像的點特征來描述對象的方法來解決。例如,用于預(yù)測觀察場景深度圖的卷積神經(jīng)網(wǎng)絡(luò)模型展示了對包含多個對象的未觀察復(fù)雜場景進行分割并估計這些場景深度圖的能力(圖5)。
圖5使用神經(jīng)網(wǎng)絡(luò)構(gòu)建不同位置的彩色圖像、深度圖和預(yù)測語義體素模型
我們使用一種通用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進行目標檢測,該結(jié)構(gòu)具有強大的深度學(xué)習(xí)圖像分類模型,將檢測到的圖像分為無人機圖像和鳥類圖像兩類。在轉(zhuǎn)換器之前使用額外的模塊可以改善輸入信號,例如一個U-net架構(gòu),它被放置在檢測器前面,以計算連續(xù)幀的移動,如圖6所示。
圖6 基于檢測和分類步驟的一般步驟
無人機視覺導(dǎo)航需要識別圖像中的目標,并使用深度學(xué)習(xí)方法對圖像進行分割和深度圖估計,從而估計到可能的障礙物的距離。基于機器視覺技術(shù)的圖像預(yù)處理過程是圖像識別算法中一個必不可少的初始點。用于目標檢測的深度學(xué)習(xí)算法具有很高的數(shù)據(jù)調(diào)整靈敏度,是目標檢測和分類中最常用的方法。
2025-09-19 12:22
2025-09-18 11:24
2025-09-17 10:55
2025-09-16 09:27
2025-09-12 11:30
2025-09-11 10:41
2025-09-09 10:52
2025-09-04 21:58
2025-08-28 11:13
2025-08-27 14:14