手机免费看av网站|婷婷丁香在线观看|日本另类在线观看|国产刺激高潮免|亚洲一区亚洲二区|激情视频在线播放视频一区|亚洲五月蜜臀aV|丝袜美腿亚洲av电影|欧美多人性爱成人综合在线|日韩黄色成人视频

  1. 首頁
  2. 資訊
  3. 技術
  4. 亞利桑那大學開發(fā)出新方法 可為深度學習應用自動生成雷達攝像頭數(shù)據(jù)集

亞利桑那大學開發(fā)出新方法 可為深度學習應用自動生成雷達攝像頭數(shù)據(jù)集

蓋世汽車 劉麗婷

蓋世汽車訊 近年來,機器人專家和計算機科學家一直在開發(fā)范圍廣泛的系統(tǒng),以檢測環(huán)境中的物體并進行相應的導航。而這些系統(tǒng)中的大多數(shù)都是基于在大型圖像數(shù)據(jù)集上訓練的機器學習和深度學習算法構(gòu)建。雖然現(xiàn)在有大量用于訓練機器學習模型的圖像數(shù)據(jù)集,但包含雷達傳感器收集數(shù)據(jù)的數(shù)據(jù)集仍然很少,盡管雷達相對于光學傳感器具有顯著優(yōu)勢。此外,許多可用的開源雷達數(shù)據(jù)集很難適用于多種用戶應用程序。

據(jù)外媒報道,亞利桑那大學(University of Arizona)的研究人員最近開發(fā)出一種新方法,可以自動生成包含標記雷達數(shù)據(jù)攝像頭圖像的數(shù)據(jù)集。該方法使用攝像頭圖像流上(又稱YOLO)的高精度目標檢測算法和關聯(lián)技術(又稱匈牙利算法)來標記雷達點云。

亞利桑那大學開發(fā)出新方法 可為深度學習應用自動生成雷達攝像頭數(shù)據(jù)集

(圖片來源:Sengupta)

亞利桑那大學的博士生和此項研究的主要研究員Arindam Sengupta表示:“使用雷達的深度學習應用需要大量標記的訓練數(shù)據(jù),而標記雷達數(shù)據(jù)并非易事。該方法主要通過手動將其與并行獲得的圖像數(shù)據(jù)流進行比較來完成,是一個極其耗時且勞動密集型的過程。我們的想法是,如果攝像頭和雷達在查看同一個物體,那么我們可以利用基于圖像的物體檢測框架(在案例中又稱YOLO)來自動標記雷達數(shù)據(jù),而非手動查看圖像?!?/p>

Sengupta及其同事稱該方法的三個特征是協(xié)同校準、聚類和關聯(lián)能力。該方法可對雷達及其攝像頭進行共同校準,以確定雷達檢測到物體的位置使如何根據(jù)攝像頭的數(shù)字像素進行轉(zhuǎn)換的。

Sengupta表示:“我們使用基于密度的聚類方案(DBSCAN)來檢測和消除噪聲/雜散雷達回波;以及將雷達回波分離成簇以區(qū)分不同的物體;最后,使用幀內(nèi)和幀間匈牙利算法(HA)進行關聯(lián)。該幀內(nèi)HA將YOLO預測與給定幀內(nèi)的協(xié)同標定雷達簇相關聯(lián),而幀間HA在連續(xù)幀中關聯(lián)與同一目標相關的雷達簇,以便即使在光學傳感器間歇失效的情況下也能在幀中標記雷達數(shù)據(jù)。”

未來,該新方法可以幫助自動生成雷達攝像頭和僅雷達數(shù)據(jù)集。此外,該團隊還探索了基于雷達攝像頭傳感器融合方法和僅由雷達收集數(shù)據(jù)的概念驗證分類方案。

Sengupta表示:“我們還建議使用有效的12維雷達特征向量,結(jié)合空間、多普勒和RCS統(tǒng)計數(shù)據(jù)構(gòu)建,而不是傳統(tǒng)使用點云分布或微多普勒數(shù)據(jù)?!?/p>

最終,Sengupta及其同事的研究可為快速調(diào)查和訓練開辟新的可能性,以使用傳感器融合對基于深度學習的模型進行分類或跟蹤。這些模型可助力提高從自動駕駛汽車到小型機器人等眾多機器人系統(tǒng)的性能。

來源:蓋世汽車

作者:劉麗婷

本文地址:http://www.vlxuusu.cn/news/jishu/169174

返回第一電動網(wǎng)首頁 >

收藏
30
  • 分享到:
發(fā)表評論
新聞推薦
第一電動網(wǎng)官方微信

反饋和建議 在線回復

您的詢價信息
已經(jīng)成功提交我們稍后會聯(lián)系您進行報價!

第一電動網(wǎng)
Hello world!
-->