日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測(cè)試網(wǎng)

  • 公眾號(hào)
    • 汽車測(cè)試網(wǎng)

    • 在線課堂

    • 電車測(cè)試

自動(dòng)駕駛感知中的深度學(xué)習(xí)

2021-05-07 13:29:02·  來(lái)源:數(shù)理之家  
 
導(dǎo) 讀自動(dòng)駕駛是一種自主決策系統(tǒng),它處理來(lái)自不同車載來(lái)源的觀測(cè)流,如照相機(jī)、雷達(dá)、激光雷達(dá)、超聲波傳感器、GPS裝置和/或慣性傳感器。這些觀察結(jié)果被汽車的
導(dǎo)  讀

自動(dòng)駕駛是一種自主決策系統(tǒng),它處理來(lái)自不同車載來(lái)源的觀測(cè)流,如照相機(jī)、雷達(dá)、激光雷達(dá)、超聲波傳感器、GPS裝置和/或慣性傳感器。這些觀察結(jié)果被汽車的計(jì)算機(jī)用來(lái)做駕駛決定。

1  傳統(tǒng)目標(biāo)檢測(cè)與識(shí)別的步驟

所謂目標(biāo)檢測(cè),就是區(qū)分圖像或者視頻中的目標(biāo)與其他不感興趣的部分,不同物體同畫面產(chǎn)生了一些明顯區(qū)分,那么如何讓計(jì)算機(jī)像人類一樣做到明確區(qū)分呢?
這就涉及目標(biāo)檢測(cè),可以說(shuō)讓計(jì)算機(jī)能夠區(qū)分出這些,是目標(biāo)檢測(cè)的第一步:目標(biāo)特征提取。

目標(biāo)檢測(cè)的第二步:目標(biāo)識(shí)別。是讓計(jì)算機(jī)識(shí)別剛才區(qū)分出來(lái)的畫面究竟是什么,從而確定視頻或圖像中目標(biāo)的種類。例如為了實(shí)現(xiàn)自動(dòng)駕駛的目標(biāo),最初需要讓計(jì)算機(jī)認(rèn)識(shí)交通目標(biāo),才能讓其成為真正的AI老司機(jī)。

如何建立一個(gè)高準(zhǔn)確率、高召回率的物體識(shí)別系統(tǒng)?這實(shí)際是無(wú)人車感知的一個(gè)核心問題,而物體檢測(cè)更是重中之重,要求我們對(duì)不同傳感器設(shè)計(jì)不同的算法來(lái)準(zhǔn)確檢測(cè)障礙物。

自動(dòng)駕駛感知中的深度學(xué)習(xí)

具體說(shuō)到物體檢測(cè),我們要求完成單幀障礙物的檢測(cè),并借助傳感器內(nèi)外參數(shù)標(biāo)定轉(zhuǎn)換矩陣,將檢測(cè)結(jié)果統(tǒng)一影射到車身的座標(biāo)系中,這種物體檢測(cè)算法既快速又準(zhǔn)確。

2  為何要引入深度學(xué)習(xí)

自動(dòng)駕駛感知中的深度學(xué)習(xí)1

深度學(xué)習(xí)的方法進(jìn)行圖像處理,最大的區(qū)別就是特征圖不再通過(guò)人工特征提取,而是利用計(jì)算機(jī),這樣提取出來(lái)的特征會(huì)非常豐富,也很全面,深度學(xué)習(xí)可以實(shí)現(xiàn)端到端的感知效果。

深度學(xué)習(xí)可以被理解為全自動(dòng)的算法,可以在沒有人干預(yù)的情況下完成一個(gè)算法的流程,這是深度學(xué)習(xí)相較于傳統(tǒng)機(jī)器學(xué)習(xí)最大的優(yōu)勢(shì)所在。

所謂的深度學(xué)習(xí)就是通過(guò)集聯(lián)多層的神經(jīng)網(wǎng)絡(luò)形成一個(gè)很深的層,當(dāng)層數(shù)越多,提取出來(lái)的特征也就越多而且越豐富。所以在目標(biāo)檢測(cè)和識(shí)別的過(guò)程中,最主要使用的深度學(xué)習(xí)特征提取模型就是深度卷積網(wǎng)絡(luò),英文簡(jiǎn)稱CNN。

為什么CNN圖像處理的方式比以前更好呢?究其原因,根本還是在于對(duì)圖像特征提取。例如,當(dāng)我們使用多層進(jìn)行特征提取的時(shí)候,其實(shí)有些層是針對(duì)圖像的邊緣輪廓來(lái)提取的,有些則是針對(duì)質(zhì)地或者紋理來(lái)進(jìn)行的,還有些是針對(duì)物體特征進(jìn)行操作,總而言之不同的層有不同的分割方式。

回歸到目標(biāo)檢測(cè)這個(gè)問題上,卷積神經(jīng)網(wǎng)絡(luò)的每一層如果能夠準(zhǔn)確提取出所需特征,最后也就容易判斷許多。因此決定CNN的目標(biāo)檢測(cè)和識(shí)別的關(guān)鍵就在于對(duì)每一層如何設(shè)計(jì)。

3  深度學(xué)習(xí)目標(biāo)檢測(cè)方法分類

深度學(xué)習(xí)針對(duì)當(dāng)前目標(biāo)檢測(cè)的方法

1) 對(duì)于候選區(qū)域的目標(biāo)檢測(cè)算法,典型的網(wǎng)絡(luò)是R-CNN和FasterR-CNN

以FasterR-CNN為例,首先提取圖像中的候選區(qū)域,隨后針對(duì)這些候選區(qū)域進(jìn)行分類判斷,當(dāng)然由于這些候選區(qū)域是通過(guò)算法搜索出來(lái)的,所以并不一定準(zhǔn)確,因此還需要對(duì)選出的區(qū)域做位置回歸,隨之進(jìn)行目標(biāo)定位,最后輸出一個(gè)定位結(jié)果??傮w來(lái)說(shuō),首先要先選擇、再判斷,最后剔除不想要的。

這種算法精度較高,不過(guò)由于需要反復(fù)進(jìn)行候選區(qū)域的選擇,所以算法的效率被限制。

2) 基于回歸的目標(biāo)檢測(cè)算法,典型實(shí)現(xiàn)是YOLO和SSD

SSD的典型回歸目標(biāo)檢測(cè)算法,分為四個(gè)步驟:第一步通過(guò)深度神經(jīng)網(wǎng)絡(luò)提取整個(gè)圖片的特征;第二步對(duì)于不同尺度的深度特征圖設(shè)計(jì)不同大小的特征抓取盒;第三步通過(guò)提取出這些抓去盒中的特征進(jìn)行目標(biāo)識(shí)別,最后,在識(shí)別出的這些結(jié)果中運(yùn)用非極大值抑制選擇最佳的目標(biāo)識(shí)別結(jié)果。

只需觀測(cè)一次圖片就能進(jìn)行目標(biāo)的檢測(cè)以及識(shí)別,因此算法的效率非常高。

3) 基于增強(qiáng)學(xué)習(xí)的目標(biāo)檢測(cè)算法,典型表現(xiàn)為深度Q學(xué)習(xí)網(wǎng)絡(luò)

可以說(shuō)場(chǎng)景適應(yīng)性算是比較強(qiáng)的。增強(qiáng)學(xué)習(xí)算法目標(biāo)檢測(cè)可被看成不斷動(dòng)態(tài)調(diào)整候選區(qū)域邊框的過(guò)程。

4  在自動(dòng)駕駛中的應(yīng)用

深度學(xué)習(xí)方法特別適合于從攝像機(jī)和lidar(光探測(cè)和測(cè)距)設(shè)備獲取的2d圖像和3d點(diǎn)云中檢測(cè)和識(shí)別對(duì)象。

在自動(dòng)駕駛中,三維感知主要基于激光雷達(dá)傳感器,它以三維點(diǎn)云的形式提供對(duì)周圍環(huán)境的直接三維表示。激光雷達(dá)的性能是根據(jù)視場(chǎng)、距離、分辨率和旋轉(zhuǎn)/幀速率來(lái)衡量的。

3D傳感器,如Velodyne通常具有360度水平視野。為了高速行駛,一輛自動(dòng)駕駛汽車至少需要200米的行駛距離,使汽車能夠及時(shí)對(duì)路況的變化作出反應(yīng),三維目標(biāo)檢測(cè)精度取決于傳感器的分辨率,最先進(jìn)的激光雷達(dá)能夠提供3cm的精度。

攝像機(jī)則是對(duì)獲取的圖像通過(guò)深度學(xué)習(xí)方法進(jìn)行處理,其主要依賴于分辨率的高度和算法的精準(zhǔn)程度。

一輛自動(dòng)駕駛汽車應(yīng)該能夠檢測(cè)到交通參與者和可行駛區(qū)域,特別是在城市地區(qū),那里可能出現(xiàn)各種各樣的物體外觀和遮擋。

基于深度學(xué)習(xí)的感知,特別是卷積神經(jīng)網(wǎng)絡(luò)(CNN)成為目標(biāo)檢測(cè)和識(shí)別的事實(shí)標(biāo)準(zhǔn),在ImageNet大規(guī)模視覺識(shí)別挑戰(zhàn)賽等比賽中取得顯著成績(jī)。

不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)用于檢測(cè)二維感興趣區(qū)域或圖像中的像素分割區(qū)域,3DLidar點(diǎn)云中的邊界盒以及組合相機(jī)Lidar數(shù)據(jù)中對(duì)象的三維表示。

場(chǎng)景感知結(jié)果的示例如圖3所示。圖像數(shù)據(jù)信息豐富,更適合于目標(biāo)識(shí)別任務(wù)。然而,由于在將成像場(chǎng)景投影到成像傳感器上時(shí)丟失了深度信息,因此必須估計(jì)被檢測(cè)對(duì)象的真實(shí)3d位置。

自動(dòng)駕駛感知中的深度學(xué)習(xí)2

以百度Apollo 為例,Apollo 障礙物感知系統(tǒng)分為 3D 檢測(cè)、ROI 濾波、識(shí)別、運(yùn)算、感知五大版塊。

其感知過(guò)程如下:首先LiDAR探測(cè)到信號(hào),傳遞給ROI的Filter,濾波后的信號(hào)通過(guò)Obstacle Segmentation和Detection識(shí)別,然后進(jìn)行 Tracking。
Apollo在運(yùn)算這一塊采用的是NVIDIA GPU,運(yùn)算能力強(qiáng)勁,可以實(shí)現(xiàn)10Hz的輸出,最后是Obstacles感知。

環(huán)境感知主要包括當(dāng)前環(huán)境的語(yǔ)義分割和靜態(tài)、動(dòng)態(tài)的目標(biāo)檢測(cè),采用人工智能技術(shù)中的深度卷積神經(jīng)網(wǎng)絡(luò)通過(guò)前期的數(shù)據(jù)訓(xùn)練以及特征提取,給出復(fù)雜環(huán)境中場(chǎng)景物體類別等信息,幫助計(jì)算機(jī)精準(zhǔn)地理解周邊的環(huán)境態(tài)勢(shì)。
分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25