久久国产热视频,做做受视频播放试看30分钟,天天槽夜夜槽槽不停,天天槽夜夜槽槽不停,最近免费字幕中文大全

發(fā)布詢價單
您的位置:首頁 > 資訊 > 綜合資訊 > 正文

使用強化學習和YOLOFlow實現(xiàn)基于自主無人機的目標搜索、跟蹤

2022-09-15 10:29 性質(zhì):轉(zhuǎn)載 作者:飛思實驗室 來源:飛思實驗室
免責聲明:無人機網(wǎng)(www.hldxsj.cn)尊重合法版權(quán),反對侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權(quán)均系原作者和機構(gòu)所有。文章內(nèi)容觀點,與本網(wǎng)無關(guān)。如有需要刪除,敬請來電商榷!)
搜索和救援行動發(fā)生在自然災害期間或之后,尋找受害者目標并跟蹤他們,直到救援隊到達撤離。無人機是該應(yīng)用不可或缺的工具,因為它們可以幫助在關(guān)鍵、時間敏感的...

搜索和救援行動發(fā)生在自然災害期間或之后,尋找受害者目標并跟蹤他們,直到救援隊到達撤離。無人機是該應(yīng)用不可或缺的工具,因為它們可以幫助在關(guān)鍵、時間敏感的任務(wù)中找到目標。它們可以攜帶各種傳感器,并且可以到達通常無法到達或?qū)θ祟惥仍藛T構(gòu)成危險風險的地方。與地面搜索和有人駕駛飛機等傳統(tǒng)方法相比,無人機具有較高的機動性、適應(yīng)性,可以表現(xiàn)出自主行為,因此可以以較低的運營成本執(zhí)行人類操作員難以執(zhí)行的操作。

我們的問題表述考慮了無人機導航的混亂、未知環(huán)境。在此設(shè)置中,目標是使用機載攝像頭導航并找到受害者,同時使用激光掃描儀避開障礙物。一旦檢測到受害者,其當前位置將被發(fā)送到救援隊進行疏散。然而,當救援隊到達時,受害者可能已經(jīng)轉(zhuǎn)移到受害者認為更安全的位置。因此,采用目標跟蹤和跟蹤來了解受害者的實時位置。這種方法可以更快地疏散,因為救援隊將能夠隨時查明受害者的當前位置。

我們的框架由三個主要部分組成:(1)自主導航和目標搜索;(2)目標檢測;(3)目標跟蹤。主要思想是將目標搜索視為強化學習問題,因為它允許代理在未知環(huán)境中學習和導航,并適應(yīng)隨機變化的環(huán)境條件。我們使用You only look once (YOLO)算法進行目標檢測,并將其與光流相結(jié)合來跟蹤和跟蹤目標。圖1展示了我們的框架在針對SaR問題檢測、跟蹤和跟蹤現(xiàn)場人類目標方面的成功。

圖1(a,b)描繪了我們真實的基于Gazebo的城市SaR場景模擬,其中無人駕駛飛行器(UAV)在現(xiàn)場搜尋受害者(c)舉例說明使用車載攝像頭檢測目標受害者(d,e)描述了使用YOLOFlow算法的目標跟蹤

強化學習和Q學習

我們假設(shè)環(huán)境是一個離散網(wǎng)格。代理的位置( x , y , z )網(wǎng)格上用于定義狀態(tài)。為了使問題簡單,我們認為無人機是在恒定高度運行的。在每個狀態(tài)下,無人機都可以前進、后退、右轉(zhuǎn)和左轉(zhuǎn),構(gòu)成動作空間。板載激光掃描儀用于檢測障礙物(墻壁、碎片等)。如果代理離障礙物太近,即如果激光掃描儀的輸出小于一個小的預定義值c, 會受到很大的懲罰。導致碰撞的動作被丟棄,無人機保持在其位置。

控制算法

我們的框架中集成了一個簡單的位置控制器,以便無人機執(zhí)行動作處于一種狀態(tài)s. 標準PID控制器]用于控制,因為它可以穩(wěn)健地穩(wěn)定飛行器的飛行,并且可以實現(xiàn)快速的系統(tǒng)響應(yīng)。對于高度和姿態(tài)參數(shù)調(diào)整,我們使用MATLAB的系統(tǒng)識別工具箱使用初始隨機值提取植物模型。

目標檢測與跟蹤

我們使用YOLO和光流進行目標檢測、跟蹤和跟蹤的方法。圖像是從無人機的機載攝像頭捕獲的。為了檢測目標,我們采用了YOLO,這是一種典型的基于神經(jīng)網(wǎng)絡(luò)的目標檢測算法。我們使用 YOLO Tiny 2.0進行人體檢測,閾值為0.2。如果代理檢測到處于特定狀態(tài)的目標,代理將獲得+100的獎勵,標志著搜索任務(wù)結(jié)束。

從無人機上的固定攝像頭,可以查看目標相對于攝像頭框架(自我框架)的相對位置。以自我為中心的框架使我們能夠雙向跟蹤目標并減少相機校準問題,因為只看到相對距離. 為了跟隨受害者,我們計算了受害者相對于機器人的運動方向,并采取適當?shù)男袆幼屖芎φ咛幱?a href="http://www.hldxsj.cn/sell/search.php?keyword=%E7%9B%91%E8%A7%86" title="監(jiān)視" target="_blank">監(jiān)視之下,直到救援隊到達該位置。雖然YOLO可以通過跟蹤邊界框的中心直接用于目標跟蹤,但其更新頻率很大程度上取決于車載計算機的配置。這對代理的物理硬件約束施加了壓力。因此,為了實現(xiàn)可擴展的應(yīng)用,我們使用基于計算光流的方法進行目標跟蹤。光流是特定像素從一幀到另一幀的運動。一旦代理到達目標,它就會始終懸停在目標上方。由于無人機是靜止的,因此光流主要是由目標的運動引起的。

圖2 YoloFlow 算法

為了計算光流,我們使用Lucas Kanade (LK)方法,這是一種局部能量優(yōu)化的微分方法。它對圖像噪聲具有魯棒性,并允許我們計算稀疏光流,即它僅計算在第一幀中選擇的特定先前確定的像素的光流。一旦檢測到目標處于特定狀態(tài),YOLO就會返回定位目標的邊界框的大小。需要注意的是,YOLO只用在第一幀。Lucas Kanade光流檢測器用于此邊界框內(nèi)的選定像素,因為只有目標需要被跟蹤。通過跟蹤這些像素運動,我們確定了目標相對于機器人的運動方向。

YOLOFlow算法如圖2所示。在運動中,我們丟棄那些距離30個單位或更遠的像素以過濾掉異常值。一旦目標移出相機框架,代理就會按照我們的算法確定的(目標的)方向執(zhí)行動作。然后算法重新啟動,并再次執(zhí)行圖2中描述的步驟。

我們通過在相對于機器人框架的各個方向上移動目標來測試 Gazebo模擬中的YOLOFlow算法。無人機的高度是固定的,使得視野 (FOV) 覆蓋一個狀態(tài)區(qū)域。圖3描繪了YOLOFlow算法的輸出以及與基本事實的視覺比較。紅色圓圈顯示了跟蹤算法的視覺表示。代理為跟隨目標而應(yīng)采取的行動顯示在左上角。模擬證實我們的框架可以成功地跟蹤目標以及計算代理要采取的行動以跟隨它。

圖3 通過將基本事實與算法的輸出進行比較來驗證YoloFlow算法

圖4顯示了該算法的雙向跟蹤能力.YOLOFlow最多可以計算8個方向的運動方向:前、后、右、左、前右、前左、后右、后左。

圖5 Yoloflow最多可以計算8個方向的目標運動方向:前、后、右、左、前右、前左、后右、后左

大量的仿真表明,代理在整個模擬時間內(nèi)在真實的SaR模擬中跟蹤受害者。結(jié)果不僅限于本文提出的城市SaR問題,還可以擴展到海洋災難場景,其中SaR的目標是搜索救生筏并跟蹤它們,直到直升機到達救援受害者。該框架也可以應(yīng)用于城市洪水情景。

源自:2020 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR) November 4-6, Abu Dhabi, UAE

網(wǎng)友評論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

推薦圖文

關(guān)注官方微信

手機掃碼看新聞