手机免费看av网站|婷婷丁香在线观看|日本另类在线观看|国产刺激高潮免|亚洲一区亚洲二区|激情视频在线播放视频一区|亚洲五月蜜臀aV|丝袜美腿亚洲av电影|欧美多人性爱成人综合在线|日韩黄色成人视频

  1. 首頁(yè)
  2. 資訊
  3. 技術(shù)
  4. 深度解析Apollo無(wú)人車(chē)感知和定位技術(shù)

深度解析Apollo無(wú)人車(chē)感知和定位技術(shù)

佐智汽車(chē)

有關(guān)無(wú)人車(chē)的定位有兩種,一種稱(chēng)之為絕對(duì)定位,不依賴(lài)任何參照物,直接給出無(wú)人車(chē)相對(duì)地球坐標(biāo)或者說(shuō)WGS84坐標(biāo)系,也就是坐標(biāo)(B,L,H),其中B為緯度,L為經(jīng)度,H為大地高即是到WGS-84橢球面的高度, WGS-84坐標(biāo)系是美國(guó)國(guó)防部研制確定的大地坐標(biāo)系,是一種協(xié)議地球坐標(biāo)系。 

WGS-84坐標(biāo)系的定義是:原點(diǎn)是地球的質(zhì)心,空間直角坐標(biāo)系的Z軸指向BIH(1984.0)定義的地極(CTP)方向,即國(guó)際協(xié)議原點(diǎn)CIO,它由IAU和IUGG共同推薦。X軸指向BIH定義的零度子午面和CTP赤道的交點(diǎn),Y軸和Z,X軸構(gòu)成右手坐標(biāo)系。WGS-84橢球采用國(guó)際大地測(cè)量與地球物理聯(lián)合會(huì)第17屆大會(huì)測(cè)量常數(shù)推薦值,采用的兩個(gè)常用基本幾何參數(shù):  長(zhǎng)半軸a=6378137m;扁率f=1:298.257223563。坐標(biāo)系非常復(fù)雜,GPS的測(cè)量結(jié)果與我國(guó)的54系或80系坐標(biāo)相差幾十米至一百多米,隨區(qū)域不同,差別也不同。

經(jīng)粗略統(tǒng)計(jì),我國(guó)西部相差70米左右,東北部140米左右,南部75米左右,中部45米左右。在中國(guó),國(guó)家出于安全的考慮,在地圖發(fā)布和出版的時(shí)候,對(duì)84坐標(biāo)進(jìn)行了一次非線性加偏,得到的坐標(biāo)我們稱(chēng)之為GCJ02坐標(biāo)系。國(guó)內(nèi)許多地圖公司,可能是由于業(yè)務(wù)的需求,或者是商業(yè)競(jìng)爭(zhēng)的某些原因,在GCJ02坐標(biāo)的基礎(chǔ)上又進(jìn)行了一次非線性加偏,得到了自己的坐標(biāo)系統(tǒng)。百度就是這么一家公司。百度在GCJ02的基礎(chǔ)上進(jìn)行了BD-09二次非線性加偏,得到了自己的百度坐標(biāo)系統(tǒng)。 

傳統(tǒng)的GPS定位精度只有3-7米,我國(guó)城市主干道單一車(chē)道寬一般是3.75米,也就是說(shuō)GPS無(wú)法做到車(chē)道線級(jí)定位。在城市道路或峽谷中,精度會(huì)進(jìn)一步下降。即便是美國(guó)及北約國(guó)家,民用系統(tǒng)也不可能用GPS獲得亞米級(jí)定位。GPS衛(wèi)星廣播的信號(hào)包括三種信號(hào)分量:載波、測(cè)距碼和數(shù)據(jù)碼。測(cè)距碼又分為P碼(精碼)和C/A碼,通常也會(huì)把C/A碼叫做民碼,P碼叫軍碼。P碼會(huì)再分為明碼和W碼,想要破解是完全不可能的。后來(lái)在新一代GPS上老美又提出了專(zhuān)門(mén)的M(Military)碼,具體細(xì)節(jié)仍處于高度保密中,只知道速率為5.115 MHz,碼長(zhǎng)未知。北斗的定位精度目前還不如GPS。 

無(wú)人車(chē)的車(chē)道線級(jí)絕對(duì)定位是個(gè)難題,無(wú)人車(chē)需要更高精度的厘米級(jí)定位。日本為解決這個(gè)問(wèn)題,研發(fā)準(zhǔn)天頂衛(wèi)星系統(tǒng)(QZSS),在2010年發(fā)射了一顆衛(wèi)星,2017年又陸續(xù)發(fā)射了3顆衛(wèi)星,構(gòu)成了三顆人造衛(wèi)星透過(guò)時(shí)間轉(zhuǎn)移完成全球定位系統(tǒng)區(qū)域性功能的衛(wèi)星擴(kuò)增系統(tǒng),今年4月1日將正式商用,配合GPS系統(tǒng),QZSS可以做到6厘米級(jí)定位。QZSS系統(tǒng)的L5信號(hào)頻點(diǎn)也是采用1176.45MHz,而且采用的碼速率與GPS在該頻點(diǎn)的碼速率一樣,都是10.23MHz。意味著芯片廠商在原有支持GPS系統(tǒng)芯片上無(wú)需改動(dòng)硬件,只需在軟件處理上作更改就可以實(shí)現(xiàn)對(duì)Galileo、QZSS系統(tǒng)的兼容,相當(dāng)于軟件實(shí)現(xiàn)上需要多搜索幾顆導(dǎo)航衛(wèi)星。幾乎不增加成本,而北斗系統(tǒng)是需要改硬件的,非常麻煩。因?yàn)槿毡緡?guó)土面積小,4顆衛(wèi)星就夠了,如果換成中國(guó)或美國(guó),可能需要35顆-40顆衛(wèi)星。 

國(guó)內(nèi)大部分廠家都采用GPS RTK做絕對(duì)定位,不過(guò)RTK缺點(diǎn)也是很明顯的。RTK確定整周模糊度的可靠性為95~99%,在穩(wěn)定性方面不及全站儀,這是由于RTK較容易受衛(wèi)星狀況、天氣狀況、數(shù)據(jù)鏈傳輸狀況影響的緣故。首先,GPS在中、低緯度地區(qū)每天總有兩次盲區(qū)(中國(guó)一般都是在下午),每次20~30分鐘,盲區(qū)時(shí)衛(wèi)星幾何圖形結(jié)構(gòu)強(qiáng)度低,RTK測(cè)量很難得到固定解。其次,白天中午,受電離層干擾大,共用衛(wèi)星數(shù)少,因而初始化時(shí)間長(zhǎng)甚至不能初始化,也就無(wú)法進(jìn)行測(cè)量。根據(jù)實(shí)際經(jīng)驗(yàn),每天中午12點(diǎn)~13點(diǎn),RTK測(cè)量很難得到固定解。再次,依賴(lài)GPS信號(hào),在隧道內(nèi)和高樓密集區(qū)無(wú)法使用。 

Apollo的定位技術(shù)

先進(jìn)的無(wú)人車(chē)方案肯定不能完全基于RTK,百度Apollo系統(tǒng)使用了激光雷達(dá)、RTK與IMU融合的方案,多種傳感器融合加上一個(gè)誤差狀態(tài)卡爾曼濾波器使得定位精度可以達(dá)到5-10厘米,且具備高可靠性和魯棒性,達(dá)到了全球頂級(jí)水平。市區(qū)允許最高時(shí)速超過(guò)每小時(shí)60公里。 

image001.jpg

上圖為百度Apollo自動(dòng)駕駛傳感器、計(jì)算單元、控制前的連接圖,計(jì)算系統(tǒng)使用臺(tái)灣Neousys Nuvo-6108GC工控機(jī),這款工控機(jī)使用英特爾雙至強(qiáng)E5-2658 V3 12核CPU。主要用來(lái)處理激光雷達(dá)云點(diǎn)和圖像數(shù)據(jù)。 

GPS定位和慣性測(cè)量單元方面,IMU 為NovAtel IMU-IGM-A1 ,GPS接收機(jī)為NovAtelProPak6。激光雷達(dá)使用的是Velodyne HDL-64E S3,通過(guò)以太網(wǎng)連接工控機(jī),水平視野360°,垂直視野26.9°,水平角度分辨率為0.08°,距離精度小于2cm,可探測(cè)到120m的汽車(chē)或樹(shù)木。視覺(jué)系統(tǒng)使用Leopard ImagingLI-USB30-AR023ZWDR with 3.0 case,通過(guò)USB連接到工控機(jī)。使用安森美的200萬(wàn)像素1080p傳感器AR0230AT和AP0202 ISP。FOV為廣角58度,有效距離大約60-70米。毫米波雷達(dá)采用的是Continental ARS408-21,連接至CAN卡。CAN卡為德國(guó)ESD CAN-PCIe/402-B4。 

image003.png

上圖為百度無(wú)人車(chē)定位模塊框架,融合了IMU、GNSS和激光雷達(dá)等傳感器(紫色),以及一個(gè)預(yù)先制作好的定位地圖(黃色)。最上層的是SINS系統(tǒng),就是Strap-down InertialNavigation。捷聯(lián)慣導(dǎo)系統(tǒng)是在平臺(tái)式慣導(dǎo)系統(tǒng)基礎(chǔ)上發(fā)展而來(lái)的,它是一種無(wú)框架系統(tǒng),由三個(gè)速率陀螺、三個(gè)線加速度計(jì)和處理器組成。SINS使用IMU測(cè)量得到的加速度和角速度積分得到位置、速度、姿態(tài)等,在卡爾曼濾波器的傳播階段作為預(yù)測(cè)模型;相應(yīng)地,卡爾曼濾波器會(huì)對(duì)IMU的加速度和角速度進(jìn)行矯正,位置、速度和姿態(tài)等誤差也反饋給SINS。RTK定位和激光雷達(dá)點(diǎn)云定位結(jié)果作為卡爾曼濾波器的量測(cè)更新。 

image005.png

上圖為百度的激光雷達(dá)點(diǎn)云定位地圖。首先要提前制作一幅無(wú)人車(chē)將要行駛地區(qū)的激光雷達(dá)點(diǎn)云定位地圖,包含有激光雷達(dá)強(qiáng)度成像圖和高度分布圖,這張圖通常是地圖廠家用測(cè)繪級(jí)激光雷達(dá)完成的。目前全球絕大多數(shù)廠家包括Waymo、福特、通用等都是如此。b為激光雷達(dá)反射強(qiáng)度成像圖,c為高度分布圖。這張圖覆蓋范圍3.3*3.1平方公里。 

激光點(diǎn)云定位算法描述如下:

image007.png

表面上看高精度定位很復(fù)雜,實(shí)際計(jì)算中,耗費(fèi)的運(yùn)算資源并不算多,基于激光雷達(dá)的運(yùn)算量遠(yuǎn)低于基于圖像的運(yùn)算量。這套系統(tǒng)在將來(lái)也可以用傳統(tǒng)的汽車(chē)級(jí)SoC完成,如瑞薩的R-Car H3,恩智浦的I.MX8或S32A258C。成本有望大幅度降低。64線激光雷達(dá)也有望在未來(lái)由flash固態(tài)激光雷達(dá)取代,進(jìn)而大幅度降低成本。 

百度無(wú)人車(chē)定位團(tuán)隊(duì)的一篇關(guān)于多傳感器融合定位的學(xué)術(shù)論文“Robust and Precise VehicleLocalization based on Multi-sensor Fusion in Diverse City Scenes”已被機(jī)器人頂級(jí)會(huì)議ICRA 2018錄用,初稿可從arXiv上下載。 

Apollo的感知技術(shù)

在 Apollo 中感知模塊有以下幾個(gè)職能:探測(cè)目標(biāo)(是否有障礙物)、對(duì)目標(biāo)分類(lèi)(障礙物是什么)、語(yǔ)義分割 (在整幀畫(huà)面中將障礙物分類(lèi)渲染)、目標(biāo)追蹤 (障礙物追蹤)。

image010.jpg

Apollo 2.0系統(tǒng)使用了多傳感器融合的方式做環(huán)境感知,攝像頭負(fù)責(zé)紅綠燈的檢測(cè),毫米波雷達(dá)最大的作用是提供目標(biāo)的運(yùn)動(dòng)速度,目標(biāo)識(shí)別主要靠激光雷達(dá)完成的。 

2016年10月,百度與清華聯(lián)合發(fā)表了論文Multi-View 3D ObjectDetection Network for Autonomous Driving ,地址https://arxiv.org/pdf/1611.07759.pdf,論文以激光雷達(dá)與攝像頭融合的方式做目標(biāo)識(shí)別,不過(guò)在2017年5月百度發(fā)表的論文Vehicle Detection from 3DLidar Using Fully Convolutional Network,地址https://arxiv.org/pdf/1608.07916.pdf,這篇論文里放棄與攝像頭融合。在2017年10月,加入毫米波雷達(dá)融合。 

2017年11月,蘋(píng)果發(fā)表論文,VoxelNet: End-to-EndLearning for Point Cloud Based 3D Object Detection,也只用激光雷達(dá)識(shí)別目標(biāo),并且與百度和清華Multi-View 3D ObjectDetection Network for Autonomous Driving做了對(duì)比,顯示出單純用激光雷達(dá)效果更好。究其原因,激光雷達(dá)數(shù)據(jù)處理速度比攝像頭要快,時(shí)間同步很有難度,兩者還需要坐標(biāo)統(tǒng)一;其次是攝像頭對(duì)光線太敏感,可靠性低,遠(yuǎn)距離尤其明顯。百度在Apollo 2.0里使用了激光雷達(dá)與毫米波雷達(dá)融合的方案。

image012.jpg

激光雷達(dá)物體識(shí)別最大的優(yōu)點(diǎn)是可以完全排除光線的干擾,無(wú)論白天還是黑夜,無(wú)論是樹(shù)影斑駁的林蔭道,還是光線急劇變化的隧道出口,都沒(méi)有問(wèn)題。其次,激光雷達(dá)可以輕易獲得深度信息,而對(duì)攝像頭系統(tǒng)來(lái)說(shuō)這非常困難。再次,激光雷達(dá)的有效距離遠(yuǎn)在攝像頭之上,更遠(yuǎn)的有效距離等于加大了安全冗余。最后,激光雷達(dá)的3D云點(diǎn)與攝像頭的2D圖像,兩者在做深度學(xué)習(xí)目標(biāo)識(shí)別時(shí),2D圖像容易發(fā)生透視變形。簡(jiǎn)單地說(shuō)透視變形指的是一個(gè)物體及其周?chē)鷧^(qū)域與標(biāo)準(zhǔn)鏡頭中看到的相比完全不同,由于遠(yuǎn)近特征的相對(duì)比例變化,發(fā)生了彎曲或變形。這是透鏡的固有特性(凸透鏡匯聚光線、凹透鏡發(fā)散光線),所以無(wú)法消除,只能改善。而3D就不會(huì)有這個(gè)問(wèn)題,所以3D圖像的深度學(xué)習(xí)使用的神經(jīng)網(wǎng)絡(luò)可以更加簡(jiǎn)單一點(diǎn)。 

另外,激光雷達(dá)也可以識(shí)別顏色和車(chē)道線。 

無(wú)人車(chē)領(lǐng)域?qū)δ繕?biāo)圖像的識(shí)別不僅僅是識(shí)別,還包括分割和追蹤。分割就是用物體框框出目標(biāo)。對(duì)于2D圖像來(lái)說(shuō),只能用2D框分割出目標(biāo),而激光雷達(dá)圖像則可以做到3D框,安全性更高。追蹤則是預(yù)測(cè)出車(chē)輛或行人可能的運(yùn)動(dòng)軌跡。 

image014.jpg

很明顯,3D的分割框要比2D的有價(jià)值的多,這也是Waymo和百度都用激光雷達(dá)識(shí)別車(chē)輛的原因之一。 

目標(biāo)檢測(cè)與識(shí)別領(lǐng)域早期用DPM。 2013年11月,目標(biāo)檢測(cè)領(lǐng)域公認(rèn)的大神Ross Girshick推出R-CNN,2015年4月進(jìn)化為Fast R-CNN,2015年6月進(jìn)化為Faster R-CNN,成為今日目標(biāo)檢測(cè)與識(shí)別領(lǐng)域公認(rèn)最好的方法,也是可以完全端對(duì)端地實(shí)現(xiàn)。 

激光雷達(dá)的目標(biāo)檢測(cè)與識(shí)別也用FasterR-CNN。Faster R-CNN 從2015年底至今已經(jīng)有接近兩年了,但依舊還是ObjectDetection領(lǐng)域的主流框架之一,雖然后續(xù)推出了R-FCN,Mask R-CNN 等改進(jìn)框架,但基本結(jié)構(gòu)變化不大。同時(shí)不乏有SSD,YOLO等新作,但精度上依然以Faster R-CNN為最好。從RCNN到fast RCNN,再到本文的faster RCNN,目標(biāo)檢測(cè)的四個(gè)基本步驟(候選區(qū)域生成,特征提取,分類(lèi),位置精修)終于被統(tǒng)一到一個(gè)深度網(wǎng)絡(luò)框架之內(nèi)。所有計(jì)算沒(méi)有重復(fù),完全在GPU中完成,大大提高了運(yùn)行速度。  

image015.png

圖像語(yǔ)義分割可以說(shuō)是圖像理解的基石性技術(shù),在自動(dòng)駕駛系統(tǒng)(具體為街景識(shí)別與理解,判斷可行駛區(qū)域)、無(wú)人機(jī)應(yīng)用(著陸點(diǎn)判斷)以及穿戴式設(shè)備應(yīng)用中舉足輕重。圖像是由許多像素組成,而「語(yǔ)義分割」顧名思義就是將像素按照?qǐng)D像中表達(dá)語(yǔ)義含義的不同進(jìn)行分組(Grouping)/分割(Segmentation)。語(yǔ)義分割有時(shí)會(huì)是最難的一部分,因?yàn)檫@要用到NLP自然語(yǔ)言處理領(lǐng)域的技能,而大部分玩CNN的對(duì)NLP不甚了解。

image017.png

上圖為斯坦福大學(xué)的激光雷達(dá)語(yǔ)義分割流程圖,最后是用3D FC-CRF,也就是全連通條件隨機(jī)場(chǎng),另一種常用的方法是MRF,馬爾科夫隨機(jī)場(chǎng)。條件隨機(jī)場(chǎng)用于序列標(biāo)注,數(shù)據(jù)分割等自然語(yǔ)言處理中,表現(xiàn)出很好的效果。在中文分詞、中文人名識(shí)別和歧義消解等任務(wù)中都有應(yīng)用。 

百度的語(yǔ)義分割主要是為了更好地理解交通場(chǎng)景,為行為決策提供依據(jù)。低成本的無(wú)人駕駛也可以用攝像頭的2D圖像做語(yǔ)義分割,為無(wú)人車(chē)找出可行駛區(qū)域,光線良好的情況下可以用這種低成本的方案。 

2018CES展示的Apollo2.0無(wú)人車(chē)頂部除了激光雷達(dá)外,新增了兩個(gè)攝像頭,一個(gè)長(zhǎng)焦、一個(gè)短焦,主要目的是為了識(shí)別道路上的紅綠燈。

自動(dòng)駕駛訓(xùn)練數(shù)據(jù)集

KITTI數(shù)據(jù)集由德國(guó)卡爾斯魯厄理工學(xué)院和豐田美國(guó)技術(shù)研究院聯(lián)合創(chuàng)辦的自動(dòng)駕駛場(chǎng)景下的計(jì)算機(jī)視覺(jué)算法評(píng)測(cè)數(shù)據(jù)集。該數(shù)據(jù)集用于評(píng)測(cè)立體圖像(stereo),光流(optical flow),視覺(jué)測(cè)距(visual odometry),3D物體檢測(cè)(object detection)和3D跟蹤(tracking)等計(jì)算機(jī)視覺(jué)技術(shù)在車(chē)載環(huán)境下的性能。KITTI包含市區(qū)、鄉(xiāng)村和高速公路等場(chǎng)景采集的真實(shí)圖像數(shù)據(jù),每張圖像中最多達(dá)15輛車(chē)和30個(gè)行人,還有各種程度的遮擋與截?cái)唷?nbsp;

image020.jpg

Cityscapes數(shù)據(jù)集則是由奔馳主推,提供無(wú)人駕駛環(huán)境下的圖像分割數(shù)據(jù)集。用于評(píng)估視覺(jué)算法在城區(qū)場(chǎng)景語(yǔ)義理解方面的性能。Cityscapes包含50個(gè)城市不同場(chǎng)景、不同背景、不同季節(jié)的街景,提供5000張精細(xì)標(biāo)注的圖像、20000張粗略標(biāo)注的圖像、30類(lèi)標(biāo)注物體。 

3月8日,百度正式開(kāi)放ApolloScape大規(guī)模自動(dòng)駕駛數(shù)據(jù)集。ApolloScape擁有比Cityscapes等同類(lèi)數(shù)據(jù)集大10倍以上的數(shù)據(jù)量,包括感知、仿真場(chǎng)景、路網(wǎng)數(shù)據(jù)等數(shù)十萬(wàn)幀逐像素語(yǔ)義分割標(biāo)注的高分辨率圖像數(shù)據(jù),進(jìn)一步涵蓋更復(fù)雜的環(huán)境、天氣和交通狀況等。ApolloScape數(shù)據(jù)集涵蓋了更復(fù)雜的道路狀況,比如單張圖像中最高可達(dá)162輛交通工具或80名行人 ,同時(shí)開(kāi)放數(shù)據(jù)集采用了逐像素語(yǔ)義分割標(biāo)注的方式。 

Kitti,Cityscapes和ApolloScape的數(shù)據(jù)實(shí)例對(duì)比

image021.png

對(duì)我國(guó)傳統(tǒng)車(chē)廠來(lái)說(shuō),自建訓(xùn)練數(shù)據(jù)集恐怕是最大的難題,與百度合作是最好的選擇。 

3月31日北京《Hello Apollo,自動(dòng)駕駛公開(kāi)課》

2018年CES上,百度發(fā)布了Apollo 2.0,搭載了百度Apollo 2.0系統(tǒng)的自動(dòng)駕駛汽車(chē)將擁有簡(jiǎn)單城市道路的自動(dòng)駕駛能力。Apollo 2.0 的發(fā)布,也意味著百度整體的自動(dòng)駕駛系統(tǒng)被開(kāi)放出來(lái),其中包括了云服務(wù)平臺(tái)、軟件平臺(tái)、參考硬件平臺(tái)以及參考車(chē)輛平臺(tái)。 

Apollo自動(dòng)駕駛公開(kāi)課第3期,即將于3月31日在北京舉辦,將引導(dǎo)自動(dòng)駕駛開(kāi)發(fā)者深入應(yīng)用Apollo2.0。本次公開(kāi)課邀請(qǐng)了百度自動(dòng)駕駛事業(yè)部的資深工程師,以及Apollo的老用戶(hù),一起與開(kāi)發(fā)者們交流,快速掌握Apollo2.0的最新功能。 

百度自動(dòng)駕駛事業(yè)部資深架構(gòu)師,負(fù)責(zé)產(chǎn)品化解決方案的楊凡將介紹Apollo開(kāi)放平臺(tái)簡(jiǎn)介、Apollo能力開(kāi)放簡(jiǎn)介、Apollo資源開(kāi)放與研發(fā)迭代新模式、Apollo生態(tài)階段性成果。 

百度無(wú)人車(chē)定位技術(shù)負(fù)責(zé)人,設(shè)計(jì)并搭建了Apollo多傳感器融合定位系統(tǒng)的萬(wàn)國(guó)偉將介紹《Apollo2.0多傳感器融合定位模塊》。無(wú)人車(chē)定位技術(shù)是自動(dòng)駕駛領(lǐng)域的基礎(chǔ)技術(shù)之一,其難點(diǎn)在于如何保證高精準(zhǔn)度和高魯棒性。Apollo2.0的多傳感器融合定位模塊自適應(yīng)地使用GNSS、LiDAR及IMU等傳感器,在許多有挑戰(zhàn)的場(chǎng)景(例如市區(qū)、隧道等)都達(dá)到了厘米級(jí)定位。萬(wàn)國(guó)偉的演講將分享定位模塊的框架,以及各子模塊的算法原理。 

長(zhǎng)沙智能駕駛研究院公司產(chǎn)品部負(fù)責(zé)人黃英君,從事智能駕駛方面總體解決方案與產(chǎn)品研發(fā)工作,將在沙龍上介紹《Apollo的分布式可擴(kuò)展計(jì)算平臺(tái)探索》。黃英君的分享主要包括:在 Jetson TX2上進(jìn)行Docker擴(kuò)展,運(yùn)行Apollo;在Apollo on Jetson TX2中配置TensorRT和VisionWorks適配,進(jìn)行視覺(jué)算法優(yōu)化與加速。 

智行者科技聯(lián)合創(chuàng)始人&技術(shù)研發(fā)部總監(jiān)李曉飛將在沙龍上分享《低速自動(dòng)駕駛專(zhuān)用車(chē)產(chǎn)品落地之智行者-Apollo合作案例》,主要包括自動(dòng)駕駛落地場(chǎng)景及應(yīng)用挑戰(zhàn)、智行者AVOS系統(tǒng)研發(fā)、智行者與Apollo的技術(shù)合作三個(gè)部分。

演講嘉賓簡(jiǎn)介

image026.jpg

楊凡:百度自動(dòng)駕駛事業(yè)部資深架構(gòu)師,負(fù)責(zé)產(chǎn)品化解決方案。 

演講摘要:Apollo開(kāi)放平臺(tái)簡(jiǎn)介、Apollo能力開(kāi)放簡(jiǎn)介、Apollo資源開(kāi)放與研發(fā)迭代新模式、Apollo生態(tài)階段性成果。 

image028.jpg

萬(wàn)國(guó)偉:百度無(wú)人車(chē)定位技術(shù)負(fù)責(zé)人,Apollo 核心算法技術(shù)負(fù)責(zé)人,設(shè)計(jì)并搭建了Apollo多傳感器融合定位系統(tǒng)。 

演講摘要:無(wú)人車(chē)定位技術(shù)是自動(dòng)駕駛領(lǐng)域的基礎(chǔ)技術(shù)之一,其難點(diǎn)在于如何保證高精準(zhǔn)度和高魯棒性。Apollo2.0的多傳感器融合定位模塊自適應(yīng)地使用GNSS、LiDAR及IMU等傳感器,在許多有挑戰(zhàn)的場(chǎng)景(例如市區(qū)、隧道等)都達(dá)到了厘米級(jí)定位。本次演講將分享定位模塊的框架,以及各子模塊的算法原理。 

image030.jpg

黃英君:長(zhǎng)沙智能駕駛研究院公司產(chǎn)品部負(fù)責(zé)人,從事智能駕駛方面總體解決方案與產(chǎn)品研發(fā)工作,對(duì)Apollo的分布式擴(kuò)展方面進(jìn)行了探索。 

演講摘要:智能駕駛的技術(shù)平臺(tái)和系統(tǒng)架構(gòu)飛速發(fā)展,多個(gè)廠家都提出了自己的系統(tǒng)架構(gòu)和解決方案,目前并沒(méi)有一個(gè)統(tǒng)治性的方案。Apollo集中運(yùn)行感知、決策、控制模塊,對(duì)資源、實(shí)時(shí)性、可靠性需求是不同的,對(duì)計(jì)算平臺(tái)、操作系統(tǒng)、運(yùn)行環(huán)境的要求也各不相同。我們分享將這些模塊進(jìn)行解耦,分布式集成運(yùn)行在不同的計(jì)算平臺(tái)和操作系統(tǒng)上,即在一個(gè)高可靠的雙機(jī)備份低成本平臺(tái)上運(yùn)行決策與控制模塊,在多個(gè)低成本高性能技術(shù)平臺(tái)上運(yùn)行感知模塊,實(shí)現(xiàn)一個(gè)分布式可擴(kuò)展的解決方案。本次分享主要包括:在 Jetson TX2上進(jìn)行Docker擴(kuò)展,運(yùn)行Apollo;在Apollo on Jetson TX2中配置TensorRT和VisionWorks適配,進(jìn)行視覺(jué)算法優(yōu)化與加速。 

image032.jpg

李曉飛:智行者科技聯(lián)合創(chuàng)始人&技術(shù)研發(fā)部總監(jiān)。 

演講摘要:風(fēng)起云涌,自動(dòng)駕駛產(chǎn)品落地之路為何困難重重?撲朔迷離,自動(dòng)駕駛應(yīng)用場(chǎng)景究竟出路何方?眾志成城,智行者和Apollo如何攜手并進(jìn)?主要講述自動(dòng)駕駛落地場(chǎng)景及應(yīng)用挑戰(zhàn),智行者AVOS系統(tǒng)研發(fā),智行者與Apollo的技術(shù)合作三個(gè)部分。

image034.jpg

來(lái)源:佐智汽車(chē)

本文地址:http://www.vlxuusu.cn/news/jishu/65264

返回第一電動(dòng)網(wǎng)首頁(yè) >

收藏
71
  • 分享到:
發(fā)表評(píng)論
新聞推薦
熱文榜
日排行
周排行
第一電動(dòng)網(wǎng)官方微信

反饋和建議 在線回復(fù)

您的詢(xún)價(jià)信息
已經(jīng)成功提交我們稍后會(huì)聯(lián)系您進(jìn)行報(bào)價(jià)!

第一電動(dòng)網(wǎng)
Hello world!
-->