日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車(chē)測(cè)試網(wǎng)

  • 公眾號(hào)
    • 汽車(chē)測(cè)試網(wǎng)

    • 在線(xiàn)課堂

    • 電車(chē)測(cè)試

ICCV‘21論文:通過(guò)概率建模深度檢測(cè)目標(biāo)的主動(dòng)學(xué)習(xí)法

2022-01-16 09:31:05·  來(lái)源:計(jì)算機(jī)視覺(jué)深度學(xué)習(xí)和自動(dòng)駕駛  作者:黃浴  
 
ICCV’21論文"Active Learning for Deep Object Detection via Probabilistic Modeling",作者來(lái)自Nvidia、韓國(guó)首爾大學(xué)和德國(guó)慕尼黑工大。主動(dòng)學(xué)習(xí)旨在選擇數(shù)據(jù)
ICCV’21論文"Active Learning for Deep Object Detection via Probabilistic Modeling",作者來(lái)自Nvidia、韓國(guó)首爾大學(xué)和德國(guó)慕尼黑工大。

主動(dòng)學(xué)習(xí)旨在選擇數(shù)據(jù)集信息量最大的樣本來(lái)降低標(biāo)記成本。現(xiàn)有的工作很少涉及目標(biāo)檢測(cè)的主動(dòng)學(xué)習(xí)。大多數(shù)方法是基于多模型或者是分類(lèi)方法的直接擴(kuò)展,因此僅用分類(lèi)頭來(lái)估計(jì)圖像的信息量。本文提出一種用于目標(biāo)檢測(cè)的深度主動(dòng)學(xué)習(xí)方法,依賴(lài)于混合密度網(wǎng)絡(luò)(mixture density networks),估計(jì)每個(gè)定位頭和分類(lèi)頭輸出的概率分布。在單模型的單次前向傳遞計(jì)算,它明確地估計(jì)兩種不確定性,即aleatoric 和 epistemic。該方法用一個(gè)評(píng)分函數(shù),將這兩種類(lèi)型的不確定性聚合起來(lái),獲得圖像的信息量分?jǐn)?shù)。在 PASCAL VOC 和 MS-COCO 數(shù)據(jù)集,證明了其有效性。
代碼開(kāi)源:GitHub - NVlabs/AL-MDN: Official pytorch implementation of Active Learning for deep object detection via probabilistic modeling (ICCV 2021)
如圖所示,是該方法的示意圖:

而下圖是該目標(biāo)檢測(cè)框架的概覽:與傳統(tǒng)目標(biāo)檢測(cè)器的主要區(qū)別在于定位頭和分類(lèi)頭(兩個(gè)分支)。a)不具有確定性輸出,而是為每個(gè)輸出學(xué)習(xí) K 分量 GMM 的參數(shù):定位頭的邊框坐標(biāo)和分類(lèi)(置信度)頭的類(lèi)密度分布;b) 從 GMM 的分類(lèi)頭中消除方差參數(shù),提高分類(lèi)頭效率。

基于GMM,得到兩個(gè)不確定性的估計(jì):

GMM的參數(shù)估計(jì)如下:

定位損失(回歸)函數(shù)定義如下:

類(lèi)概率分布定義為:

分類(lèi)損失定義為:

最后,總損失定義為:

而推理的輸出即定位和分類(lèi)的結(jié)果:

最后,高效的aleatoric uncertainty計(jì)算是:

為此修正分類(lèi)損失函數(shù)定義:

主動(dòng)學(xué)習(xí)的評(píng)分函數(shù)為每個(gè)圖像提供一個(gè)單值表明其信息量。評(píng)分函數(shù)通過(guò)聚合圖像中每個(gè)檢測(cè)目標(biāo)的兩種不確定性值來(lái)估計(jì)圖像的信息量。
具體來(lái)說(shuō),讓 U = {uij } 是一組圖像的不確定性集,其中 uij 是第 i 個(gè)圖像第 j 個(gè)目標(biāo)的不確定性。對(duì)于定位,uij 是 4 個(gè)邊框輸出的最大值。首先,z-score 歸一化 (u ?ij = (uij ? μU )/σU ),補(bǔ)償一個(gè)事實(shí):邊框的坐標(biāo)值是無(wú)界的,并且圖像的每個(gè)不確定性可能有不同的范圍。然后,對(duì)每個(gè)圖像分配檢測(cè)目標(biāo)的最大不確定性 ui = maxj u ?ij。憑經(jīng)驗(yàn)發(fā)現(xiàn),在坐標(biāo)和目標(biāo)上取最大值比取平均值要好。
用上述算法,每個(gè)圖像獲得四個(gè)不同的歸一化不確定性值:用于分類(lèi)和定位的兩個(gè)不確定性,分別為 u = {uiepc , uialc , uiepb , uialb }。剩下的部分是將這些分?jǐn)?shù)聚合成一個(gè)。聚合這些不確定性評(píng)分函數(shù)得到不同組合,包括求和或取最大值。正如在實(shí)驗(yàn)中展示的那樣,取最大值會(huì)獲得最高評(píng)分。
實(shí)驗(yàn)結(jié)果如下:采用SSD方法和Faster RCNN做檢測(cè)





比較多模型方法:ensemble和MC-dropout。




分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25