日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測試網(wǎng)

  • 公眾號
    • 汽車測試網(wǎng)

    • 在線課堂

    • 電車測試

利用時(shí)空證據(jù)和獨(dú)立視覺通道改善車輛環(huán)境感知的多傳感器融合

2019-01-04 10:10:11·  來源:智車科技  作者:Juwang Shi等  
 
摘要:對于智能車輛來說,多傳感器融合對于高精度和魯棒性的感知交通環(huán)境至關(guān)重要。在這篇論文中,我們提出了兩種有效的方法,即時(shí)空證據(jù)生成和獨(dú)立視覺通道,以
摘要:對于智能車輛來說,多傳感器融合對于高精度和魯棒性的感知交通環(huán)境至關(guān)重要。在這篇論文中,我們提出了兩種有效的方法,即時(shí)空證據(jù)生成和獨(dú)立視覺通道,以改善多傳感器跟蹤水平對車輛環(huán)境感知的影響。時(shí)空證據(jù)包括即時(shí)證據(jù)、跟蹤證據(jù)和跟蹤匹配證據(jù),以改進(jìn)存在融合。
 
獨(dú)立視覺通道利用視覺處理在物體識別上的特殊優(yōu)勢來改進(jìn)分類融合。利用從實(shí)際交通環(huán)境中采集的多傳感器數(shù)據(jù)集對所提出的方法進(jìn)行了評估。實(shí)驗(yàn)結(jié)果表明,該方法在檢測精度和分類精度方面均可顯著提高多傳感器軌道級融合。
 
作者:Juwang Shi, Wenxiu Wang, Xiao Wang, Hongbin Sun*, Xuguang Lan, Jingmin Xin and Nanning Zheng
原文題目:Leveraging Spatio-Temporal Evidence and Independent Vision Channel to Improve Multi-Sensor Fusion for Vehicle Environmental Perception
 
Ⅰ.介紹
交通環(huán)境中的物體感知的魯棒性對于自動(dòng)駕駛和高級駕駛輔助系統(tǒng)( ADAS )都具有重要意義。物體感知可以通過不同類型的傳感器來實(shí)現(xiàn),例如激光雷達(dá)、雷達(dá)和攝相機(jī)。激光雷達(dá)和雷達(dá)是有源傳感器,可以測量物體的精確距離,但物體分類的能力較差。而攝像機(jī)在物體識別方面表現(xiàn)出優(yōu)異的性能,但是測量物體距離的能力較差。雷達(dá)對測量物體的速度更敏感,激光雷達(dá)更適合于感知物體的形狀??傊?,這些傳感器各有優(yōu)缺點(diǎn)[ 1 ]。因此,融合不同的傳感器有望實(shí)現(xiàn)物體感知的高精度和魯棒性。
傳感器融合系統(tǒng)已經(jīng)被研究了幾十年。通常,傳感器融合方法可分為三類:低級、特征級和高級融合方法。
低級融合架構(gòu)不需要在傳感器級對原始數(shù)據(jù)進(jìn)行預(yù)處理。盡管低級融合[ 2 ]對物體有很強(qiáng)的描述能力,但它需要很高的數(shù)據(jù)帶寬,并且在實(shí)踐中實(shí)施起來可能很復(fù)雜。
特征級融合[ 3 ]試圖在進(jìn)行數(shù)據(jù)融合之前,通過預(yù)處理步驟從原始數(shù)據(jù)中提取某些特征。特征級融合可以降低復(fù)雜性,但在實(shí)踐中仍然難以實(shí)現(xiàn)。
在高級融合[ 4 ]中,每個(gè)傳感器獨(dú)立地執(zhí)行跟蹤算法并生成目標(biāo)列表。高級融合可以產(chǎn)生最佳的感知性能,因?yàn)樗哂心K化、實(shí)用性和可擴(kuò)展性。
因此,在本文中,我們將重點(diǎn)放在高級融合上,也稱為軌道級融合。軌道級融合的一個(gè)潛在缺點(diǎn)是它對物體的描述能力較差。因此,在軌道級融合設(shè)計(jì)中,我們應(yīng)該更加關(guān)注物體的完整描述,如分類、形狀等。
 
許多軌道級融合方法[ 5 ]–[ 7 ]已經(jīng)被提出,并對目標(biāo)感知做出了巨大貢獻(xiàn)。在跟蹤目標(biāo)時(shí),我們主要關(guān)注三種信息:1 )目標(biāo)的存在概率;2 )目標(biāo)狀態(tài)的準(zhǔn)確性,包括位置、速度和方向,反映在目標(biāo)的全局軌跡上;3 )其他描述信息的完整性,如分類、形狀等。
 
因此,軌道級融合主要包括存在融合、軌道間融合和分類融合。參考文獻(xiàn)[ 5 ]和[ 6 ]使用基于證據(jù)理論( DST )的存在融合方法來估計(jì)物體的存在概率。然而,它們的存在證據(jù)只考慮瞬時(shí)的空間證據(jù),而忽略了時(shí)間證據(jù),因此會(huì)產(chǎn)生相對高的誤報(bào)率和誤報(bào)率,特別是在高度動(dòng)態(tài)的交通環(huán)境下。參考[ 5 ]和[ 7 ]提出了使用信息矩陣融合( IMF )來估計(jì)物體狀態(tài)的軌道間融合方法。然而,它們像其他主動(dòng)傳感器一樣融合圖像對象,同時(shí)忽略圖像對象的不準(zhǔn)確位置,這導(dǎo)致相對高的假陰性率、檢測的假陽性率和相對低的正確識別率。
圖1 :最新軌道級融合的框架
為了解決上述兩個(gè)問題,我們提出了兩種方法,即時(shí)空證據(jù)生成( STEG )和獨(dú)立視覺通道( IVC ),以改進(jìn)多傳感器軌道級融合。STEG方法提高了存在估計(jì)的準(zhǔn)確性,從而提高了軌道級融合的檢測精度。IVC方法不僅提高了軌道融合的檢測率,而且提高了軌道融合的正確分類率。利用從實(shí)際交通環(huán)境中收集的多傳感器數(shù)據(jù)集對所提出的方法進(jìn)行了評估。實(shí)驗(yàn)結(jié)果清楚地證明了所提方法在軌道級融合中的有效性。與沒有STIG的方法相比,所提出的STIG方法在相似誤報(bào)率的情況下將目標(biāo)檢測的誤報(bào)率降低了0.06,并且在相似誤報(bào)率的情況下與沒有STIG的方法相比將誤報(bào)率降低了0.08。同時(shí),所提出的IVC方法將目標(biāo)檢測的假陰性率降低了0.01,并將目標(biāo)識別的正確分類率提高了0.19。

Ⅱ.軌道級融合的背景
為了正確檢測室外環(huán)境中的目標(biāo),并且大多數(shù)情況下不會(huì)因?yàn)檫M(jìn)入和離開視場而丟失物體信息,多傳感器數(shù)據(jù)應(yīng)該在軌道級融合。如圖1所示,軌道級融合的框架包括傳感器級處理、融合級處理和應(yīng)用級處理。在傳感器級處理中,我們獨(dú)立地從每個(gè)傳感器獲得傳感器局部對象列表:
其中t是時(shí)間戳,Si表示傳感器i,Oj是對檢測對象的描述,包括狀態(tài)xˇ、狀態(tài)協(xié)方差Pˇ、存在概率p和分類c。在融合級處理中,來自不同傳感器的對象列表首先在空間和時(shí)間上與公共坐標(biāo)系對齊。跟蹤到跟蹤關(guān)聯(lián)后,傳感器級對象會(huì)列出DtS1...SN通過存在融合、軌道融合和分類融合融合在一起,形成全局目標(biāo)列表DtG。在應(yīng)用程序級處理中,全局對象列表DtG與特定應(yīng)用程序的其他數(shù)據(jù)源相結(jié)合。
 
存在融合是從獨(dú)立的傳感器級估計(jì)中融合目標(biāo)存在概率,生成全局目標(biāo)存在概率估計(jì)。這對提高目標(biāo)跟蹤的魯棒性非常重要。對于單傳感器目標(biāo)跟蹤,存在概率主要通過歸一化創(chuàng)新平方( NIS )來估計(jì)。最近還提出了幾種更先進(jìn)的方法。例如,[ 8 ]提出了一種利用立體視覺和跟蹤過程中的幾個(gè)線索來估計(jì)物體存在概率的方法。對于多傳感器目標(biāo)跟蹤,在綜合概率數(shù)據(jù)關(guān)聯(lián)( IPDA )框架中開發(fā)了目標(biāo)存在概率估計(jì),作為檢測目標(biāo)的質(zhì)量度量[ 9 ]。參考文獻(xiàn)[ 6 ]提出了一種基于DST的目標(biāo)存在概率估計(jì)的融合方法,其中組合了由每個(gè)傳感器估計(jì)的目標(biāo)存在。
 
軌道間融合來自獨(dú)立傳感器級估計(jì)的目標(biāo)狀態(tài)及其協(xié)方差,以生成全局目標(biāo)狀態(tài)估計(jì)。參考[ 10 ]提出了目標(biāo)軌道融合( OTF )方法,其中傳感器級軌跡被視為對全局目標(biāo)軌跡的測量,忽略了相關(guān)性和信息冗余。參考文獻(xiàn)[ 11 ]介紹了軌道到軌道融合( T2T )方法,該方法通過近似技術(shù)計(jì)算互相關(guān)度,這種方法存在缺陷。IMF在用于將多傳感器各自的目標(biāo)軌跡融合成全局軌跡,并顯示出出色的性能?;贗MF的方法在[ 7 ]中提出,該方法使用IMF來處理速度相關(guān)性,實(shí)現(xiàn)了集中式架構(gòu)的可比性能。[ 12 ]對現(xiàn)有的用于物體狀態(tài)估計(jì)的軌道間融合方法進(jìn)行了精度比較。它表明IMF對過程噪聲最魯棒,在過程模型偏差期間最準(zhǔn)確和一致。
 
分類融合旨在改進(jìn)全局對象的分類估計(jì)。大多數(shù)分類融合方法基于證據(jù)理論,這是一種基于不完全和不確定信息的決策工具。對于全局對象分類融合,找到合適的證據(jù)至關(guān)重要。參考[ 13 ]–[ 15 ]使用基于DST的方法來估計(jì)全局目標(biāo)軌跡的分類。[ 13 ]提議的基于DST的融合方法依賴于兩個(gè)主要證據(jù):瞬時(shí)融合證據(jù),從當(dāng)前每個(gè)物體的單個(gè)傳感器提供的證據(jù)組合中獲得;以及動(dòng)態(tài)融合證據(jù),其將來自先前結(jié)果的證據(jù)與瞬時(shí)融合結(jié)果相結(jié)合。在[ 14 ]中,作者提出了一種基于證據(jù)理論的目標(biāo)柵格地圖融合,以決定是否占據(jù)柵格。提出了一種基于DST的分類方法[ 15 ]來融合全局軌跡的瞬時(shí)分類結(jié)果和先前的分類結(jié)果。參考[ 16 ]和[ 17 ]使用Yager規(guī)則組合來自不同傳感器的物體分類證據(jù),進(jìn)一步用于關(guān)聯(lián)來自不同傳感器的物體。
 
III.軌道級融合
 
A.總體框架
圖2示出了我們所提出的軌道級融合的框架。整體框架非常類似于最先進(jìn)的軌道級融合框架。特別是,對于時(shí)間和空間對齊,我們采用了我們先前工作[ 8 ]中介紹的相同方法,將獨(dú)立的傳感器級對象列表同步并校準(zhǔn)到公共坐標(biāo)系。然后,我們使用匈牙利算法來關(guān)聯(lián)來自多個(gè)傳感器的時(shí)間和空間對齊的對象列表。我們將DST用于存在融合和分類融合,以及IMF用于軌道到軌道融合。主要原因是DST和IMF分別是最有效的方法。
圖2 :軌道級融合框架
本文提出的框架和最新框架之間的主要區(qū)別可以描述如下。
  • 我們提出了一種基于DST的存在融合時(shí)空證據(jù)生成方法。我們同時(shí)考慮空間瞬時(shí)證據(jù)、時(shí)間跟蹤證據(jù)和跟蹤匹配證據(jù),以改進(jìn)存在融合。
  • 我們使用獨(dú)立的視覺通道將圖像對象信息融合到全局軌道中。IVC的使用不僅可以改進(jìn)分類融合,還可以避免對航跡融合的負(fù)面影響。
B.時(shí)空證據(jù)生成
1 )即時(shí)證據(jù)生成:當(dāng)一個(gè)物體出現(xiàn)在感知范圍內(nèi)時(shí),我們需要證據(jù)來即時(shí)支持存在融合。單個(gè)傳感器存在估計(jì)的魯棒性實(shí)際上非常低。因此,直接使用單傳感器存在估計(jì)[ 6 ]進(jìn)行存在融合是不合適的。為了提高目標(biāo)檢測的魯棒性,我們使用瞬時(shí)測量的匹配信息作為證據(jù)來支持目標(biāo)存在估計(jì)。我們使用匈牙利算法從不同傳感器獲取不同目標(biāo)列表的瞬時(shí)匹配信息,其中我們計(jì)算不同列表中目標(biāo)之間的歐氏距離作為權(quán)重矩陣。
我們將臨界距離定義為d1max,并將兩個(gè)獨(dú)立傳感器的距離定義為di,j。如果di,j小于d1max且對象i與對象j匹配,則定義瞬時(shí)證據(jù)質(zhì)量,利用Sigmod函數(shù)將di,j映射到質(zhì)量集[a,b]。Sigmod函數(shù)定義為
其中ε是接近于零的正常量。
2 )跟蹤證據(jù)生成:當(dāng)一個(gè)物體在一段時(shí)間內(nèi)只被一個(gè)傳感器檢測到時(shí),我們無法從多個(gè)傳感器獲得證據(jù)。由于單個(gè)傳感器對目標(biāo)的瞬時(shí)測量不穩(wěn)定,我們將目標(biāo)跟蹤歷史作為存在融合的證據(jù)。
我們計(jì)算一段時(shí)間內(nèi)同一軌道上當(dāng)前幀和前一幀的對象之間的平均歐氏距離,以獲得支持存在估計(jì)的質(zhì)量。大量證據(jù)被定義為
其中ε是如B1小節(jié)中提到的常數(shù),d2max是與物體速度相關(guān)聯(lián)的臨界距離。davg由軌道的長度和平滑度估計(jì),定義為
其中k是當(dāng)前時(shí)間戳,n - 1是軌道的選定長度。
3 )跟蹤匹配證據(jù)生成:如果一個(gè)物體在一段時(shí)間內(nèi)被幾個(gè)傳感器同時(shí)觀察到,這意味著這個(gè)物體幾乎肯定存在。這是物體存在融合的有力證據(jù)。
在本文中,我們計(jì)算來自不同傳感器的兩個(gè)目標(biāo)軌道的平均歐幾里德距離,以獲得支持存在估計(jì)的質(zhì)量。大量有力的證據(jù)被定義為
其中ε是接近零的正常數(shù),dt2t是兩條軌道之間的平均距離。Dt2t定義為
其中ki是時(shí)間戳,而i,j代表不同的傳感器,n是軌道長度。
4 )基于DST的存在融合:對于目標(biāo)存在概率融合,我們獲得了上述三種證據(jù),即瞬時(shí)證據(jù)、跟蹤證據(jù)和跟蹤匹配證據(jù)。
存在概率識別框架定義為
其中彐代表存在。實(shí)際上,我們計(jì)算質(zhì)量m(彐 )和質(zhì)量m(θ),其中θ是未知的命題。在[ 6 ]中,如果一個(gè)物體在傳感器的范圍內(nèi),而傳感器未能檢測到該物體,它們定義了m(彐 )的質(zhì)量。由于遮擋問題和傳感器的不可靠性,這是不合適的。因此,假設(shè)A代表存在或未知的命題,我們有三個(gè)質(zhì)量值來支持如上計(jì)算的命題A、m1(A )、m2(A )和m3(A )。我們使用[ 6 ]中提出的組合和判別規(guī)則計(jì)算融合存在概率,該規(guī)則定義為
其中K定義為
C.獨(dú)立視覺通道
在所有傳感器中,攝像機(jī)傳感器的識別能力是最出色的。因此,必須融合圖像信息,以實(shí)現(xiàn)全面的物體感知。然而,由圖像傳感器檢測到的物體的真實(shí)位置并不像其他有源傳感器那樣精確,因?yàn)閿z像機(jī)校準(zhǔn)參數(shù)不能適應(yīng)室外交通環(huán)境的所有條件。例如,安裝在車輛上的攝像機(jī)可能會(huì)隨著車輛在不平的道路上行駛而晃動(dòng)。如果IMF方法使用與其他傳感器相同的圖像對象列表,將導(dǎo)致相對較高的對象檢測假陰性和假陽性率,從而導(dǎo)致相對較低的對象識別正確分類率。參考[ 19 ]指出了圖像對象的不準(zhǔn)確位置,因此提出了一種融合圖像信息的方法。然而,該方法要求其他傳感器必須獲得幾何信息以匹配圖像對象的形狀,這對于沒有感知形狀信息能力的傳感器來說通常是不可用的。
為了解決上述問題,我們提出了一種獨(dú)立的視覺通道方法來更恰當(dāng)?shù)厝诤蠄D像對象信息。提出的獨(dú)立視覺通道獨(dú)立處理圖像對象列表,避免了對軌道融合的負(fù)面影響。此外,獨(dú)立的視覺通道將圖像信息傳遞給有源傳感器的目標(biāo),因此也可以改進(jìn)軌道級融合的分類估計(jì)。我們首先使用A3小節(jié)中提到的軌道匹配算法將圖像對象的軌道與其他傳感器的軌道進(jìn)行匹配。當(dāng)當(dāng)前時(shí)間戳或先前時(shí)間戳的dt2t小于d3max時(shí),我們將圖像對象信息(如分類)傳輸?shù)搅硪粋€(gè)活動(dòng)傳感器的對象。之后,我們首先使用DST作為等式( 12 ),將轉(zhuǎn)移的分類c~i和自含分類cSj融合為c~Sj。然后,我們使用DST作為等式( 13 ),將當(dāng)前分類和先前分類進(jìn)行融合。
Ⅳ.實(shí)驗(yàn)結(jié)果
 
A.實(shí)驗(yàn)裝置
所有物體感知實(shí)驗(yàn)都在西安交通大學(xué)開發(fā)的“發(fā)現(xiàn)號”自動(dòng)駕駛車輛研究平臺上進(jìn)行。該平臺旨在滿足一般自主駕駛研究的要求,同時(shí)也在努力應(yīng)對環(huán)境感知的挑戰(zhàn)。“發(fā)現(xiàn)”在2017年贏得了中國智能車輛未來挑戰(zhàn)( IVFC )。如圖3 ( a )所示,“發(fā)現(xiàn)號”安裝有一臺德爾菲ESR MMW雷達(dá)、一臺單目點(diǎn)灰色攝像機(jī)和一臺ibeo LUX - 8L。圖3 ( b )示出了三個(gè)傳感器的具體感知范圍。表I列出了這三種傳感器的類型、視場( FOV )、范圍和更新速率。
實(shí)驗(yàn)中使用的數(shù)據(jù)集是由安裝在西安市城市道路“發(fā)現(xiàn)號”上的多個(gè)傳感器收集的。攝像機(jī)和雷達(dá)的捕獲速率為10fps,激光雷達(dá)的捕獲速率為6.25fps。我們已經(jīng)同時(shí)捕獲了45287幀的同步數(shù)據(jù)集,包括相機(jī)、激光雷達(dá)和雷達(dá)數(shù)據(jù)。從數(shù)據(jù)集中,我們選擇4個(gè)會(huì)話來測試建議的方法,如表所示
圖3 : XJTU自動(dòng)駕駛車輛研究平臺“發(fā)現(xiàn)號”的傳感器配置
我們已經(jīng)預(yù)處理了4個(gè)選定的會(huì)話。MMW雷達(dá)目標(biāo)直接從雷達(dá)傳感器讀取,圖像目標(biāo)由單鏡頭多盒檢測器( SSD ) [ 20 ]模型檢測,激光雷達(dá)數(shù)據(jù)由基于密度的帶噪聲應(yīng)用空間聚類( DBSCAN ) [ 21 ]處理。雷達(dá)和激光雷達(dá)的目標(biāo)分別被卡爾曼濾波器跟蹤。
B.時(shí)空證據(jù)生成的結(jié)果
與文獻(xiàn)[6]中提出的時(shí)空證據(jù)生成方法相比,本文提出的時(shí)空證據(jù)生成方法從目標(biāo)檢測的假陰性率和假陽性率兩方面對該方法進(jìn)行了評價(jià)。如果存在一個(gè)對象,則將其與全局軌道相融合。因此,為了評估存在性融合的性能,我們分別計(jì)算了目標(biāo)檢測的全局假陰性率和假陽性率。
在我們的工作中,我們?yōu)镾teg方法選擇了一組參數(shù),d1max=d2max=d3max=2.2m;ε=0:0001。該方法可以通過改變目標(biāo)檢測的參數(shù)來調(diào)整目標(biāo)檢測的假陰性率和假陽性率。因此,我們選擇了兩組參數(shù),即不帶STEG 1的參數(shù),與STEG方法相似的假陽性率參數(shù)和不帶步驟2的參數(shù),與STEG方法的假陰性率相似。表三列出了前面方法的兩組參數(shù)。雷達(dá)信任度是激光雷達(dá)傳感器的感知范圍。在感知范圍內(nèi),如果雷達(dá)傳感器檢測到目標(biāo),而激光雷達(dá)傳感器出現(xiàn)故障,則導(dǎo)致目標(biāo)的不存在。
如圖4所示,在類似假陽性率的情況下,所提出的STEP方法比不帶STG的方法降低了目標(biāo)檢測的假陰性率0.06;在類似假陰性率的情況下,與沒有STIG的方法相比,該方法降低了0.08%的假陽性率。
 
圖4:STEG檢測精度比較
C.獨(dú)立視覺通道的結(jié)果
圖5 :對象ID變化比較的示例
較高的誤檢率會(huì)導(dǎo)致全局目標(biāo)軌跡的識別號(ID)發(fā)生較大的變化。IVC方法可以減少假陰性率和ID變化次數(shù)。圖5(A)示出交通場景,其中正面汽車(標(biāo)記為紅色邊框)正在移動(dòng)。圖5(B)分別示出了該方法與IVC提供的汽車軌道的ID變化比較,以及不使用IVC的方法,其中每種顏色代表一個(gè)ID。所提出的IVC方法提供的軌跡ID在20秒內(nèi)不發(fā)生變化,但在沒有IVC的情況下,該方法提供的ID變化了兩次。圖6示出了目標(biāo)檢測的假陰性率和假陽性率的比較。比較結(jié)果表明,與不含IVC的方法相比,采用IVC的方法可使假陰性率降低0.01。雖然對目標(biāo)檢測的假陰性率的提高相對較小,但可以減少ID的平均變化次數(shù),從而有效地提高了分類融合的效果。
本文采用基于DST的分類融合方法,利用現(xiàn)有的傳感器證據(jù)和以往的全局分類證據(jù)來確定目標(biāo)的分類。因此,當(dāng)對象ID發(fā)生變化時(shí),會(huì)丟失以前的分類證據(jù),從而導(dǎo)致分類正確率較低。圖7示出了對象id的平均變化時(shí)間和正確的分類率。結(jié)果表明,該方法的平均變化次數(shù)為0.67,比無IVC的方法低3倍以上。該方法的正確分類率為0.78,比不含IVC的方法高0.19。
圖6:IVC檢測精度比較
圖7 : IVC分類精度比較
 
V.結(jié)論
 
在這篇論文中,我們提出了兩種方法來改進(jìn)用于目標(biāo)感知的軌道級融合。首先,我們提出了一種時(shí)空證據(jù)生成方法,用于目標(biāo)存在概率融合,以降低誤報(bào)率和誤報(bào)率。其次,我們提出了一種獨(dú)立的視覺通道方法來改進(jìn)跟蹤-跟蹤融合和分類融合。最后,通過從實(shí)際交通環(huán)境中采集的多傳感器數(shù)據(jù)集對所提出的方法進(jìn)行了評估。實(shí)驗(yàn)結(jié)果表明,該方法在檢測精度和分類精度方面均可顯著提高多傳感器軌道級融合。在未來的工作中,我們將考慮使用攝像機(jī)對道路場景的理解來幫助物體融合感知。
REFERENCES
[1] S. Sivaraman and M. M. Trivedi, “Lookingat vehicles on the road: A survey of vision-based vehicle detection, tracking,and behavior analysis,” IEEE Transactions on Intelligent TransportationSystems,vol. 14, no. 4, pp. 1773–1795, 2013.
[2] S. Pietzsch, T. D. Vu, O. Aycard, T.Hackbarth, N. Appenrodt, J. Dickmann, and B. Radig, “Results of a precrashapplication based on laser scanner and short-range radars,” IEEE Transactionson Intelligent Transportation Systems, vol. 17, no. 7, pp. 584–593, 2009.
[3] N. Kaempchen, M. Buhler, and K. Dietmayer,“Feature-level fusion for free-form object tracking using laserscanner andvideo,” in IEEE Intelligent Vehicles Symposium, 2005, pp. 453–458.
[4] M. Aeberhard and N. Kaempchen,“High-level sensor data fusion architecture for vehicle surround environmentperception,” in International Workshop on Intelligent Transportation, 2011.
[5] M. Aeberhard, S. Schlichtharle, N.Kaempchen, and T. Bertram,“Track-to-track fusion with asynchronous sensors using information matrixfusion for surround environment perception,” IEEE Transactions on IntelligentTransportation Systems, vol. 13, no. 4, pp. 1717–1726, 2012.
[6] M. Aeberhard, S. Paul, N. Kaempchen,and T. Bertram, “Object existence probability fusion using dempster-shafertheory in a highlevel sensor data fusion architecture,” in IEEE IntelligentVehicles Symposium, 2011, pp. 770–775.
[7] H. Li, F. Nashashibi, B. Lefaudeux, andE. Pollard, “Track-to-track fusion using split covariance intersection filter-informationmatrix filter (SCIF-IMF) for vehicle surrounding environment perception,” inIEEE International Conference on Intelligent Transportation Systems, 2013, pp.1430–1435.
[8] S. Gehrig, A. Barth, N. Schneider, andJ. Siegemund, “A multi-cue approach for stereo-based object confidenceestimation,” in IEEE/RSJ International Conference on Intelligent Robots andSystems, 2012, pp. 3055–3060.
[9] D. Musicki, R. Evans, and S. Stankovic,“Integrated probabilistic data association,” IEEE Transactions on AutomaticControl, vol. 39, no. 6, pp. 1237–1241, 1994.
[10] Y. Bar-Shalom and X. Li, Multitarget-multisensortracking: principles and techniques. Storrs, CT: YBS Publishing, 1995.
[11] H. Chen, T. Kirubarajan, and Y. Bar-Shalom,“Performance limits of track-to-track fusion versus centralized estimation:theory and applica- tion,” IEEE Transactions on Aerospace and ElectronicSystems,vol. 39, no. 2, pp. 386–400, 2003.
[12] S. Nilsson and A. Klekamp, “A comparisonof architectures for track fusion,” in IEEE International Conference onIntelligent Transportation Systems, 2015, pp. 517–522.
[13] T. D. Vu, O. Aycard, and F. Tango, “Objectperception for intelligent vehicle applications: A multi-sensor fusionapproach,” in IEEE Intelligent Vehicles Symposium, 2014, pp. 774–780.
[14] D. Nuss, M. Thom, A. Danzer, and K. Dietmayer,“Fusion of laser and monocular camera data in object grid maps for vehicleenvironment perception,” in IEEE International Conference on InformationFusion, 2014, pp. 1–8.
[15] M. Aeberhard and T. Bertram, “Objectclassification in a high-level sensor data fusion architecture for advanceddriver assistance systems,” in IEEE International Conference on IntelligentTransportation Systems, 2015, pp. 416–422.
[16] R. O. Chavez-Garcia, T. D. Vu, and O.Aycard, “Fusion at detection level for frontal object perception,” in IEEEIntelligent Vehicles Symposium Proceedings, 2014, pp. 1225–1230.
[17] R. O. Chavez-Garcia and O. Aycard,“Multiple sensor fusion and classification for moving object detection andtracking,” IEEE Transactions on Intelligent Transportation Systems, vol. 17,no. 2, pp. 525–534, 2016.
[18] X. Wang, L. Xu, H. Sun, J. Xin, and N.Zheng, “On-road vehicle detection and tracking using mmw radar and monovisionfusion,” IEEE Transactions on Intelligent Transportation Systems, vol. 17, no.7, pp. 2075–2084, 2016.
[19] H. Cho, Y. W. Seo, B. V. K. V. Kumar,and R. R. Rajkumar, “A multi-sensor fusion system for moving object detectionand tracking in urban driving environments,” in IEEE International Conferenceon Robotics and Automation, 2014, pp. 1836–1843.
[20] L. Wei, D. Anguelov, D. Erhan, C. Szegedy,S. Reed, C. Fu, and A. C. Berg, “SSD: single shot multibox detector,” inEuropean Conference on Computer Vision, 2016, pp. 21–37.
[21] X. Zhang, W. Xu, C. Dong, and J. M.Dolan, “Efcient L-shape tting for vehicle detection using laser scanners,” inIEEE Intelligent Vehicles Symposium, 2017, pp. 54–59.
論文介紹及作者情況:
This work was supported partly by National Key R&D Program of China
(No. 2017YFC0803907), National Natural Science Foundation of China
(No. 61790563, 91748208), and Joint Foundation of Ministry of Education
of China (No. 6141A02033303)
The authors are with the Institute of Artificial Intelligence and Robotics,
Xi’an Jiaotong University, Xi’an, Shaanxi, 710049 P.R. China
*Corresponding author: Hongbin Sun, hsun@mail.xjtu.edu.cn
 
 
分享到:
 
反對 0 舉報(bào) 0 收藏 0 評論 0
滬ICP備11026917號-25