日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車(chē)測(cè)試網(wǎng)

  • 公眾號(hào)
    • 汽車(chē)測(cè)試網(wǎng)

    • 在線課堂

    • 電車(chē)測(cè)試

無(wú)人駕駛技術(shù)入門(mén)——初識(shí)深度學(xué)習(xí)之交通標(biāo)志分類(lèi)

2019-02-23 15:03:03·  來(lái)源:自動(dòng)駕駛干貨鋪  作者:陳光ShawnChen  
 
車(chē)道線檢測(cè)、跟蹤的項(xiàng)目,主要是通過(guò)設(shè)置ROI(感興趣區(qū)域)、調(diào)試算法閾值,通過(guò)人為設(shè)定規(guī)則的方式實(shí)現(xiàn)車(chē)道線檢測(cè)。隨著人工智能技術(shù)的發(fā)展,近幾年在圖像處理
車(chē)道線檢測(cè)、跟蹤的項(xiàng)目,主要是通過(guò)設(shè)置ROI(感興趣區(qū)域)、調(diào)試算法閾值,通過(guò)人為設(shè)定規(guī)則的方式實(shí)現(xiàn)車(chē)道線檢測(cè)。隨著人工智能技術(shù)的發(fā)展,近幾年在圖像處理領(lǐng)域越來(lái)越多地采用深度學(xué)習(xí)的方式進(jìn)行圖像中物體的識(shí)別。使用深度學(xué)習(xí)的方法識(shí)別圖像,不僅性能更為魯棒,而且相比于設(shè)定規(guī)則的方式,識(shí)別率更高。
 
正文
先通過(guò)一張簡(jiǎn)單的圖,認(rèn)識(shí)工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系。由圖可以看出深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,機(jī)器學(xué)習(xí)又是人工智能的一個(gè)分支。
人工智能最早可以追溯到上個(gè)世紀(jì)五十年代,受制于當(dāng)時(shí)的計(jì)算能力,人工智能技術(shù)并沒(méi)有得到很好地發(fā)展;直到上世紀(jì)八十年代,計(jì)算機(jī)算力的大幅提高,人工智能才得以蓬勃發(fā)展,繼而衍生出了機(jī)器學(xué)習(xí)技術(shù),機(jī)器學(xué)習(xí)的出現(xiàn),幫助人類(lèi)解決了很多諸如垃圾郵件分類(lèi)、房?jī)r(jià)估計(jì)等簡(jiǎn)單問(wèn)題,也輔助解決圖像識(shí)別等復(fù)雜問(wèn)題,但準(zhǔn)確度未能達(dá)到預(yù)期。直到深度學(xué)習(xí)(通過(guò)的神經(jīng)網(wǎng)絡(luò)進(jìn)行機(jī)器學(xué)習(xí))技術(shù)的出現(xiàn)以及并行計(jì)算技術(shù)的加持,使得圖像識(shí)別等復(fù)雜問(wèn)題的準(zhǔn)確度得到了大幅提升,一舉超越了人類(lèi)識(shí)別的水平。越來(lái)越多的科學(xué)工作者、工程人員和資本投入到了深度學(xué)習(xí)領(lǐng)域。
 
人工智能主要是為了解決預(yù)測(cè)(回歸)和分類(lèi)兩大問(wèn)題。在生活中,預(yù)測(cè)的例子有很多,比如根據(jù)房屋面積等信息預(yù)測(cè)房屋的價(jià)格,或是根據(jù)前幾年的銷(xiāo)售額,預(yù)測(cè)今年的銷(xiāo)售額等。分類(lèi)的問(wèn)題也有很多,比如判定股票的漲跌,圖像中的物體(比如手寫(xiě)數(shù)字、字母)的識(shí)別等。
 
認(rèn)識(shí)神經(jīng)網(wǎng)絡(luò)
 
提到神經(jīng)網(wǎng)絡(luò)時(shí),我們總會(huì)看到如下由圓圈和線組成的網(wǎng)絡(luò),下面說(shuō)一下這樣繪制的原因。
人類(lèi)的神經(jīng)元通過(guò)多個(gè)樹(shù)突接收數(shù)據(jù),經(jīng)過(guò)處理后,將信號(hào)通過(guò)軸突發(fā)出,與上述結(jié)構(gòu)十分相似,因此我們搭建的網(wǎng)絡(luò)圖也被稱(chēng)為神經(jīng)網(wǎng)絡(luò)。
圖片出處:優(yōu)達(dá)學(xué)城(Udacity)無(wú)人駕駛工程師學(xué)位
通過(guò)一個(gè)房?jī)r(jià)計(jì)算的例子,解釋一下這里的圓圈和線段。
在一個(gè)地區(qū),決定一個(gè)房子最直接因素就是房子的面積,面積越大,房子的價(jià)格就越高。
即房屋價(jià)格 = 房屋面積*每平方米房?jī)r(jià)。我們用兩個(gè)圓圈和一條線段可將這個(gè)關(guān)系表示為:
這是房屋價(jià)格最簡(jiǎn)單的計(jì)算方法。
但是房屋價(jià)格還受到其他因素的影響,比如是是否裝修、家具等。
引入裝修和家具的支出,得房屋價(jià)格 = 房屋面積*每平方米房?jī)r(jià) + 裝修面積 * 每平方米裝修 + 家具支出 * 1。最終的房屋價(jià)格組成的圖應(yīng)該如下所示:
這就組成了一個(gè)預(yù)測(cè)房屋價(jià)格的基本網(wǎng)絡(luò)。在這個(gè)網(wǎng)絡(luò)中房屋面積、裝修面積、家具支出是這個(gè)網(wǎng)絡(luò)的輸入,房?jī)r(jià)/平米、裝修/平米為這個(gè)網(wǎng)絡(luò)的參數(shù),線段代表的是這個(gè)參數(shù)的乘法運(yùn)算,房屋價(jià)格為這個(gè)網(wǎng)絡(luò)的輸出。
我們將上面的網(wǎng)絡(luò)圖做一個(gè)抽象表達(dá),使其能夠應(yīng)用于除房?jī)r(jià)預(yù)測(cè)外的更多場(chǎng)景。如下所示:
對(duì)于這個(gè)簡(jiǎn)單的網(wǎng)絡(luò)而言,x1、x2、b被稱(chēng)作這個(gè)網(wǎng)絡(luò)的輸入,位于這一層的數(shù)據(jù)被稱(chēng)為輸入層(Input Layer);w1、w2被稱(chēng)作這個(gè)網(wǎng)絡(luò)的參數(shù);線段為參數(shù)的運(yùn)算規(guī)則,這里既可以是四則運(yùn)算,也可是復(fù)雜的函數(shù)運(yùn)算;output為這個(gè)網(wǎng)絡(luò)的輸出,位于這一層數(shù)據(jù)被稱(chēng)為輸出層(Output Layer)。
房?jī)r(jià)預(yù)測(cè)問(wèn)題相對(duì)直觀、簡(jiǎn)單,不需要太過(guò)復(fù)雜的網(wǎng)絡(luò)即可實(shí)現(xiàn)??梢坏┟鎸?duì)復(fù)雜的問(wèn)題(如圖像識(shí)別)時(shí),無(wú)法通過(guò)簡(jiǎn)單的線性網(wǎng)絡(luò)描述清楚,需要引入更多的參數(shù)和更為復(fù)雜的計(jì)算(比如sigmoid、relu等函數(shù))。就出現(xiàn)了這種需要包含隱藏層(hidden layers)的網(wǎng)絡(luò)。當(dāng)網(wǎng)絡(luò)越大時(shí),整個(gè)網(wǎng)絡(luò)所包含的參數(shù)就越多,網(wǎng)絡(luò)也越復(fù)雜。網(wǎng)絡(luò)越復(fù)雜,神經(jīng)網(wǎng)絡(luò)中的參數(shù)越難解釋其作用,這就是深度神經(jīng)網(wǎng)絡(luò)被稱(chēng)為“黑盒”的原因。
神經(jīng)網(wǎng)絡(luò)的參數(shù)
房?jī)r(jià)計(jì)算的神經(jīng)網(wǎng)絡(luò)搭建好后,我們就可以通過(guò)向網(wǎng)絡(luò)中輸入房屋面積、裝修面積、家具支出等信息,得到房屋的價(jià)格了。當(dāng)網(wǎng)絡(luò)的參數(shù)(房?jī)r(jià)/平米、裝修/平米)越準(zhǔn)確時(shí),使用該模型預(yù)測(cè)得到的輸出(房屋價(jià)格)也將越準(zhǔn)確。因此合理的參數(shù)設(shè)置,決定著一個(gè)神經(jīng)網(wǎng)絡(luò)的好壞。
在深度學(xué)習(xí)技術(shù)普及前,神經(jīng)網(wǎng)絡(luò)的參數(shù),是根據(jù)開(kāi)發(fā)者的經(jīng)驗(yàn)設(shè)置的。再通過(guò)真實(shí)的數(shù)據(jù),帶入驗(yàn)證,不斷微調(diào),使網(wǎng)絡(luò)預(yù)測(cè)出的值盡可能接近真實(shí)值,進(jìn)而得到越來(lái)越準(zhǔn)確的參數(shù)。這種人為設(shè)置參數(shù)的行為在淺層的神經(jīng)網(wǎng)絡(luò)中尚可行得通,一旦網(wǎng)絡(luò)參數(shù)達(dá)到千甚至上萬(wàn)級(jí)別時(shí),這種方法變得不再可行。
為解決深層神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)試方法,深度學(xué)習(xí)領(lǐng)域的專(zhuān)家提出了反向傳播(Back propagation)理論。
數(shù)據(jù)由輸入層傳入,再經(jīng)過(guò)隱藏層的一系列計(jì)算得到結(jié)果,并由輸出層傳出的這個(gè)過(guò)程被稱(chēng)為前向傳播(Forward propagation)。反向傳播的思路與前面提到的人為設(shè)置參數(shù)的方法類(lèi)似,也是通過(guò)對(duì)比網(wǎng)絡(luò)預(yù)測(cè)值與真實(shí)值之間的差異,進(jìn)而微調(diào)網(wǎng)絡(luò)。
不過(guò)反向傳播的做法與人為設(shè)置參數(shù)有所不同,它需要計(jì)算預(yù)測(cè)值和真實(shí)的損失函數(shù)L,損失函數(shù)可以理解為預(yù)測(cè)值和真實(shí)值之間的差值,差值越大,損失函數(shù)越大。
完成預(yù)測(cè)值與真值的損失函數(shù)計(jì)算后,通過(guò)求取前向傳播參數(shù)的偏導(dǎo)的方法,將損失函數(shù)對(duì)參數(shù)的偏導(dǎo)傳遞到前一層網(wǎng)絡(luò),利用這個(gè)偏導(dǎo)與一個(gè)系數(shù)(學(xué)習(xí)率)的乘積更新網(wǎng)絡(luò)中的參數(shù)。隨后繼續(xù)傳播到更上一層的網(wǎng)絡(luò),直到網(wǎng)絡(luò)中所有的參數(shù)都被更新。
每有一組數(shù)據(jù),就可以利用反向傳播的方法進(jìn)行一次參數(shù)的更新,這就是深度學(xué)習(xí)網(wǎng)絡(luò)會(huì)隨著訓(xùn)練數(shù)據(jù)量的增大,變得越來(lái)越準(zhǔn)確的原因。
反向傳播的理論在優(yōu)達(dá)學(xué)城(Udacity)無(wú)人駕駛工程師學(xué)位的深度學(xué)習(xí)基礎(chǔ)課程中做了詳細(xì)的介紹,也可以參考CSDN的文章《一文弄懂神經(jīng)網(wǎng)絡(luò)中的反向傳播法》,該文使用了一個(gè)簡(jiǎn)單的網(wǎng)絡(luò)一步步闡述了反向傳播的過(guò)程,淺顯易懂。
分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25