全文1560字,
預(yù)計(jì)閱讀時(shí)間3分鐘
原創(chuàng) | 鄭 業(yè)編輯 | 呂嘉玲
在前面的幾期文章中,我們已經(jīng)介紹了有關(guān)無人機(jī)檢測的背景知識,以及一些常用的檢測技術(shù)和方法。相信大家已經(jīng)對無人機(jī)檢測這個(gè)主題有了一定的了解。
為了防御這些惡意的無人機(jī),“成功檢測”往往是第一步。實(shí)際上,我們還需要進(jìn)一步確定目標(biāo)在空間中的位置,并實(shí)時(shí)跟蹤目標(biāo),以便后續(xù)的拒止動作(如網(wǎng)槍捕獲)能夠準(zhǔn)確作用到惡意無人機(jī)上面,從而消除惡意無人機(jī)的威脅。那么,怎么樣才能實(shí)現(xiàn)對惡意無人機(jī)的準(zhǔn)確檢測、定位和跟蹤呢?
在最近的工作中,我們提出了一種能夠?qū)崟r(shí)檢測、定位、跟蹤未知無人機(jī)的全景視覺網(wǎng)絡(luò)系統(tǒng)(見圖1)。目前,相關(guān)的研究成果已經(jīng)被國際知名期刊IEEE Transactions on Automation Science and Engineering接收,并申請了發(fā)明專利(已授權(quán))。下面,我來分享一下該系統(tǒng)是如何基于相機(jī)網(wǎng)絡(luò)實(shí)現(xiàn)對未知無人機(jī)的實(shí)時(shí)檢測、定位及跟蹤的。
圖1 基于全景視覺網(wǎng)絡(luò)的無人機(jī)檢測、定位及跟蹤系統(tǒng)
全景視覺網(wǎng)絡(luò)系統(tǒng)由一個(gè)中心節(jié)點(diǎn)和大量感知節(jié)點(diǎn)組成,如圖1所示,黃色框表示感知節(jié)點(diǎn),藍(lán)色框表示中心節(jié)點(diǎn),紅色框表示目標(biāo)無人機(jī)。圖2展示了感知節(jié)點(diǎn)的組成,可以看到,每個(gè)感知節(jié)點(diǎn)由4個(gè)相機(jī)組成,每個(gè)相機(jī)由4個(gè)鏡頭組成,所以,每個(gè)感知節(jié)點(diǎn)共有16個(gè)鏡頭。除此之外,感知節(jié)點(diǎn)中還包含了一些其它裝置,如用于確定節(jié)點(diǎn)坐標(biāo)系的RTK-GPS和IMU,用于與中心節(jié)點(diǎn)通信的路由器、用于處理數(shù)據(jù)的兩臺計(jì)算機(jī)(每臺計(jì)算機(jī)處理4組雙目數(shù)據(jù))等。中心節(jié)點(diǎn)由計(jì)算機(jī)和路由器組成,用于接收并融合各感知節(jié)點(diǎn)獲得的目標(biāo)無人機(jī)的空間位置,然后給出最終的目標(biāo)無人機(jī)數(shù)量以及它們各自的空間坐標(biāo)。
在感知節(jié)點(diǎn)中,我們使用雙目視覺定位技術(shù)估計(jì)節(jié)點(diǎn)與目標(biāo)無人機(jī)之間的距離。感知節(jié)點(diǎn)中的16個(gè)鏡頭兩兩為一組,組成了8組雙目,在圖3中用相同的顏色表示一組雙目。值得注意的是,由于雙目鏡頭的配置,各個(gè)感知節(jié)點(diǎn)存在部分視野盲區(qū),見圖3中的紅色區(qū)域。當(dāng)目標(biāo)進(jìn)入視野盲區(qū)的時(shí)候,感知節(jié)點(diǎn)將無法準(zhǔn)確定位目標(biāo)無人機(jī),但是由于系統(tǒng)中存在大量的感知節(jié)點(diǎn),此時(shí)可以依靠周圍的感知節(jié)點(diǎn)實(shí)現(xiàn)對目標(biāo)無人機(jī)的準(zhǔn)確定位。因此,各個(gè)感知節(jié)點(diǎn)具備360°全景檢測和定位目標(biāo)無人機(jī)的能力。相比于商業(yè)版的雙目相機(jī),我們的這套系統(tǒng)擁有更大的基線(1 m),所以可以估計(jì)更遠(yuǎn)的目標(biāo)距離。
圖2 感知節(jié)點(diǎn)硬件平臺
圖3 感知節(jié)點(diǎn)中的雙目鏡頭組合
系統(tǒng)的工作流程包括視覺無人機(jī)檢測、雙目定位和空間軌跡跟蹤,算法的流程見圖4。算法的執(zhí)行步驟如下:
1) 視覺無人機(jī)檢測算法會實(shí)時(shí)檢測相機(jī)視野中的惡意無人機(jī);
2) 當(dāng)雙目鏡頭中的目標(biāo)無人機(jī)同時(shí)被檢測到后,利用特征匹配和立體幾何的方法計(jì)算出物體的在相機(jī)坐標(biāo)系下的坐標(biāo)。結(jié)合節(jié)點(diǎn)的IMU和RTK-GPS,通過坐標(biāo)轉(zhuǎn)換就能夠獲得目標(biāo)無人機(jī)的GPS坐標(biāo);
3) 基于軌跡的目標(biāo)跟蹤算法會利用該坐標(biāo)進(jìn)行參數(shù)的初始化,并一直跟蹤目標(biāo)的空間位置,從而獲得一段時(shí)間內(nèi)的軌跡。在中心節(jié)點(diǎn)中,通過軌跡相似度方法將多個(gè)感知節(jié)點(diǎn)估計(jì)的無人機(jī)的軌跡融合到一起,輸出最終的無人機(jī)軌跡。
圖4系統(tǒng)流程圖
在整套算法中,視覺無人機(jī)檢測和雙目定位部署在感知節(jié)點(diǎn)上,空間軌跡跟蹤主要工作在中心節(jié)點(diǎn)上。整個(gè)系統(tǒng)的算法采用模塊化設(shè)計(jì),這樣做的好處是便于替換同類性能更好的算法,以進(jìn)一步提升系統(tǒng)的性能。
為了驗(yàn)證系統(tǒng)的性能,我們做了兩個(gè)實(shí)驗(yàn):1個(gè)節(jié)點(diǎn)vs 1架無人機(jī)和2個(gè)節(jié)點(diǎn)vs 2架無人機(jī)。相關(guān)的實(shí)驗(yàn)視頻如下:
,時(shí)長01:43
這項(xiàng)工作是第一個(gè)系統(tǒng)性實(shí)現(xiàn)360°全視角檢測、定位和跟蹤未知無人機(jī)的研究。在該工作中,無論是系統(tǒng)的硬件平臺,還是算法框架,都采用了模塊化設(shè)計(jì),便于在實(shí)際應(yīng)用中部署以及算法和平臺的升級。
目前,我們團(tuán)隊(duì)還有許多有趣的研究正在進(jìn)行中,更多分享,敬請期待。
本文提及的算法細(xì)節(jié)和硬件平臺細(xì)節(jié),請參見:Y. Zheng, C. Zheng, X. Zhang, F. Chen, Z. Chen, and S. Zhao*, "Detection, Localization, and Tracking of Multiple MAVs with Panoramic Stereo Camera Networks", IEEE Transactions on Automation Science and Engineering, accepted, May 2022.
歡迎來到西湖大學(xué)智能無人系統(tǒng)實(shí)驗(yàn)室!我們的實(shí)驗(yàn)室專注于小型無人機(jī)(UAV)的基本理論和新應(yīng)用。技術(shù)研究領(lǐng)域包括(i)單無人機(jī)的制導(dǎo),導(dǎo)航和控制,(ii)多無人機(jī)的集群系統(tǒng),以及(iii)基于視覺和其他類型的傳感器的智能傳感系統(tǒng)。目前,我們有十多個(gè)小組成員,包括博士后,博士生,研究助理和訪問學(xué)生。他們都畢業(yè)于中國和海外的頂尖大學(xué)。我們擁有一流的實(shí)驗(yàn)設(shè)備,如Vicon,動作捕捉系統(tǒng)和各種實(shí)驗(yàn)無人機(jī)平臺。
歡迎來到西湖大學(xué)智能無人系統(tǒng)實(shí)驗(yàn)室! 小型旋翼無人機(jī)在民用和軍事領(lǐng)域有廣泛的應(yīng)用,涉及到眾多的科學(xué)研究問題。 西湖大學(xué)“智能無人系統(tǒng)實(shí)驗(yàn)室” 關(guān)注于微小型無人機(jī)的基礎(chǔ)理論與應(yīng)用研究,面向國家和社會重大需求,專注于從事高影響力的研究工作。 實(shí)驗(yàn)室目前關(guān)注的研究領(lǐng)域包括單無人機(jī)系統(tǒng)的導(dǎo)航制導(dǎo)與控制、多無人機(jī)系統(tǒng)的協(xié)同控制與估計(jì)、以及基于視覺和多種傳感器的智能感知系統(tǒng)。 實(shí)驗(yàn)室具有一流的科研設(shè)施、完善的工作條件、活躍的科研氛圍。 目前實(shí)驗(yàn)室已有十幾名優(yōu)秀團(tuán)隊(duì)成員,分別來自國內(nèi)外著名高校。 此外,實(shí)驗(yàn)室具有高精度VICON室內(nèi)定位系統(tǒng)、一系列空中和地面機(jī)器人平臺、GPU計(jì)算服務(wù)器、3D打印機(jī)等設(shè)施,為開展相關(guān)研究和實(shí)驗(yàn)奠定了良好基礎(chǔ)。
2025-09-15 10:22
2025-09-12 11:33
2025-09-12 11:32
2025-09-12 11:31
2025-09-12 11:29
2025-09-12 11:27
2025-09-12 11:25
2025-09-11 10:45
2025-09-11 10:44
2025-09-11 10:36