日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車(chē)測(cè)試網(wǎng)

  • 公眾號(hào)
    • 汽車(chē)測(cè)試網(wǎng)

    • 在線課堂

    • 電車(chē)測(cè)試

深度學(xué)習(xí)與汽車(chē)安全

2021-02-06 00:17:26·  來(lái)源:碰撞與安全  
 
深度學(xué)習(xí)(DeepLearning)是機(jī)器學(xué)習(xí)的一個(gè)分支,通過(guò)模擬人腦的神經(jīng)網(wǎng)絡(luò)來(lái)解釋數(shù)據(jù),其前身是人工神經(jīng)網(wǎng)絡(luò)。在2012年底的ImageNet圖像識(shí)別比賽中,Geoffrey Hinto
深度學(xué)習(xí)(Deep Learning)是機(jī)器學(xué)習(xí)的一個(gè)分支,通過(guò)模擬人腦的神經(jīng)網(wǎng)絡(luò)來(lái)解釋數(shù)據(jù),其前身是人工神經(jīng)網(wǎng)絡(luò)。在2012年底的ImageNet圖像識(shí)別比賽中,Geoffrey Hinton團(tuán)隊(duì)利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)擊敗Google,一舉奪得冠軍。自此,深度學(xué)習(xí)進(jìn)入爆發(fā)期。深度學(xué)習(xí)在圖像識(shí)別和語(yǔ)音識(shí)別方面的突破尤為顯著,解決了諸多復(fù)雜的模式識(shí)別難題。近年來(lái),隨著研究邊界的拓展,深度學(xué)習(xí)已深入到汽車(chē)安全領(lǐng)域,并逐漸成為輔助汽車(chē)安全行駛的關(guān)鍵技術(shù)之一。

深度學(xué)習(xí)與汽車(chē)安全深度學(xué)習(xí)

1  深度學(xué)習(xí)與汽車(chē)主動(dòng)安全

深度學(xué)習(xí)的爆發(fā)式發(fā)展極大地促進(jìn)了圖像識(shí)別技術(shù)的提高,進(jìn)而使汽車(chē)主動(dòng)安全系統(tǒng)對(duì)復(fù)雜路況的視覺(jué)感知能力大幅提升。汽車(chē)主動(dòng)安全系統(tǒng)帶來(lái)的操控方便性和行駛安全性將有效緩解駕駛員的駕駛疲勞。深度學(xué)習(xí)的引入讓消費(fèi)者真正感受到了汽車(chē)主動(dòng)安全系統(tǒng)的實(shí)用性、準(zhǔn)確性、便捷性,使得汽車(chē)主動(dòng)安全越來(lái)越受到消費(fèi)者的青睞。因此,深度學(xué)習(xí)對(duì)于汽車(chē)主動(dòng)安全的發(fā)展意義重大。

深度學(xué)習(xí)與汽車(chē)安全1
圖2 汽車(chē)主動(dòng)安全系統(tǒng)

近年來(lái),關(guān)于深度學(xué)習(xí)在汽車(chē)主動(dòng)安全領(lǐng)域的研究,多家企業(yè)及高校均有深入探索。如Nvidia公司采用end2end的方法,并將CNN與end2end的深度框架集成,可以實(shí)時(shí)地進(jìn)行路況檢測(cè)和識(shí)別[1]。Mobileye公司開(kāi)發(fā)了擁有良好環(huán)境感知能力的IQ3系統(tǒng),可精確檢測(cè)交通指示牌、車(chē)輛、行人及可行駛區(qū)域等[2]。Comma.ai 的Geo Hot系統(tǒng)可通過(guò)深度學(xué)習(xí)擬合出最優(yōu)駕駛策略[3]。高軍構(gòu)建了一種基于分組卷積神經(jīng)網(wǎng)絡(luò)(MTS-GCNN)的變道行為預(yù)測(cè)模型,可在變道事件發(fā)生前準(zhǔn)確預(yù)測(cè)出駕駛員的變道意圖[4]。霍星等提出了一種基于深度學(xué)習(xí)的駕駛員安全帶檢測(cè)系統(tǒng),其檢測(cè)正確率可達(dá)92%左右[5]。郭道一基于碰撞仿真大數(shù)據(jù)和深度學(xué)習(xí)方法,提出了一種能夠預(yù)測(cè)兩車(chē)碰撞后車(chē)輛和乘員的損傷程度的算法[6]。

深度學(xué)習(xí)與汽車(chē)安全2
圖3 Nvidia路況檢測(cè)識(shí)別系統(tǒng)

2  深度學(xué)習(xí)與CAE仿真

深度學(xué)習(xí)的前身人工神經(jīng)網(wǎng)絡(luò)與有限元曾有過(guò)多種結(jié)合方式,并取得了很好的效果,如有限元神經(jīng)網(wǎng)絡(luò)模型。隨著深度學(xué)習(xí)浪潮的興起,探求深度學(xué)習(xí)與CAE的良好結(jié)合方式成為近年來(lái)行業(yè)的研究熱點(diǎn)。目前,深度學(xué)習(xí)已在力學(xué)領(lǐng)域有了初步探索,結(jié)果顯示深度學(xué)習(xí)將大幅縮短仿真計(jì)算時(shí)間。

深度學(xué)習(xí)與汽車(chē)安全3
圖4 常規(guī)部件設(shè)計(jì)流程[7]

Osamu Ito 等[7]將深度學(xué)習(xí)與CAE相結(jié)合,進(jìn)行了行人保護(hù)頭碰模擬分析,取得了良好的效果。該團(tuán)隊(duì)選取了29款車(chē)的發(fā)動(dòng)機(jī)罩,利用發(fā)動(dòng)機(jī)罩2D結(jié)構(gòu)圖和CAE仿真結(jié)果對(duì)卷積神經(jīng)網(wǎng)絡(luò)(CNN)的LeNet-5網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,最后用訓(xùn)練后的學(xué)習(xí)模型分別對(duì)另外三款Mini-van、SUV、Seddan車(chē)型進(jìn)行分析。結(jié)果如圖6所示,與CAE分析相比,AI(Artificial intelligence)分析的頭碰得分誤差小于5%,其得分云圖精度達(dá)76%-81%。論文[7]中還指出,學(xué)習(xí)模型的訓(xùn)練時(shí)間僅140秒,用學(xué)習(xí)模型計(jì)算每款車(chē)的得分云圖僅需10秒,而CAE分析則需要40小時(shí)。由此可見(jiàn),采用深度學(xué)習(xí)算法后分析效率大幅提升,且基于目前的訓(xùn)練樣本,其分析精度也處于較高水平。

深度學(xué)習(xí)與汽車(chē)安全4
圖5 引入AI的部件設(shè)計(jì)流程[7]

傳統(tǒng)的CAE分析對(duì)3D數(shù)據(jù)的依賴(lài)較大,且對(duì)有限元網(wǎng)格的要求很高。因此,在數(shù)據(jù)成熟度不高的情況下(如設(shè)計(jì)前期),傳統(tǒng)的CAE分析無(wú)法給出精確結(jié)果。而深度學(xué)習(xí)模型不依賴(lài)傳統(tǒng)的網(wǎng)格數(shù)據(jù),其可為概念設(shè)計(jì)階段提供有力支持。從公布的論文內(nèi)容看,該團(tuán)隊(duì)在研究過(guò)程中尚未考慮零件厚度、零件材料、頭碰空間、周邊約束等因素,且訓(xùn)練樣本偏小,待上述內(nèi)容完善后,其分析精度會(huì)進(jìn)一步提高。
深度學(xué)習(xí)與汽車(chē)安全5
圖6 驗(yàn)證結(jié)果[7]

Shouhei Kunitomi等[8]利用行人碰撞姿態(tài)圖和深度學(xué)習(xí)算法構(gòu)建了一種新的行人頭部傷害預(yù)測(cè)方法(如圖7所示)。該方法首先建立人車(chē)碰撞模型并開(kāi)展CAE分析,其次將仿真所得的行人碰撞姿態(tài)圖和HIC值整理成圖片數(shù)據(jù)集,再次利用上述圖片數(shù)據(jù)集對(duì)深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練以建立行人碰撞圖和HIC值之間的關(guān)系,最后用另外一張行人碰撞圖對(duì)學(xué)習(xí)模型進(jìn)行驗(yàn)證。該方法在仿真層面取得了較好結(jié)果,但對(duì)真實(shí)碰撞情形的預(yù)測(cè)能力尚需進(jìn)一步提升。

深度學(xué)習(xí)與汽車(chē)安全6
圖7 深度學(xué)習(xí)預(yù)測(cè)方法總覽[8]

3  結(jié)語(yǔ)

深度學(xué)習(xí)的應(yīng)用越來(lái)越普及,其對(duì)汽車(chē)安全領(lǐng)域的影響將是顛覆性的。其影響不僅表現(xiàn)在主動(dòng)安全領(lǐng)域,而且逐漸滲透進(jìn)CAE仿真領(lǐng)域。隨著研究的不斷深入,未來(lái)會(huì)有更完善的深度學(xué)習(xí)模型問(wèn)世,并為汽車(chē)安全開(kāi)發(fā)提供更好的支持。





參考文獻(xiàn):
[1] Bojarski M, Del Testa D, Dworakowski D, et al. End to end learning for self-driving cars[DB]. 2016.
https://arxiv.org/abs/1604.07316.
[2] Shalev-Shwartz S, Ben-Zrihem N, Cohen A, et al. Long-term planning by short-term prediction[DB]. 2016.
https://arxiv.org/abs/1602.01580.
[3] Santana E, Hotz G. Learning a driving simulator[DB].2016.
https://arxiv.org/abs/1608.01230.
[4] 高軍. 基于計(jì)算機(jī)視覺(jué)與深度學(xué)習(xí)的汽車(chē)主動(dòng)安全系統(tǒng)關(guān)鍵技術(shù)研究[D]. 武漢理工大學(xué),2018.
[5] 霍星, 費(fèi)志偉, 趙峰, et al. 深度學(xué)習(xí)在駕駛員安全帶檢測(cè)中的應(yīng)用[J]. 計(jì)算機(jī)科學(xué), 2019(B06):182-187.
[6] 郭道一. 基于深度學(xué)習(xí)和仿真的汽車(chē)碰撞損傷預(yù)測(cè)方法[D]. 大連理工大學(xué),2019.
[7] Osamu Ito, Jun Shiraishi, Kazuo Imura, et al. Prediction of pedestrian protection performance using machine learning[C]. Proceedings of the 26th International Technical Conference on the Enhanced Safety of Vehicles (ESV). 2019.
[8] Shouhei Kunitomi, Atsuhiro Konosu. Prediction of Head Injury Severity for Pedestrians in Car‐Pedestrian Accidentsusing Deep Learning Methodology[C]. IRCOBI conference 2018. 2018.
 
分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25