日本无码免费高清在线|成人日本在线观看高清|A级片免费视频操逼欧美|全裸美女搞黄色大片网站|免费成人a片视频|久久无码福利成人激情久久|国产视频一二国产在线v|av女主播在线观看|五月激情影音先锋|亚洲一区天堂av

  • 手機(jī)站
  • 小程序

    汽車測(cè)試網(wǎng)

  • 公眾號(hào)
    • 汽車測(cè)試網(wǎng)

    • 在線課堂

    • 電車測(cè)試

基于大模型的仿真系統(tǒng)研究一——三維重建大模型

2024-04-20 21:30:39·  來(lái)源:賽目科技  
 

一  基于大模型的仿真系統(tǒng)框架


  傳統(tǒng)的仿真測(cè)試驗(yàn)證普遍基于場(chǎng)景,而場(chǎng)景的構(gòu)建主要由道路和場(chǎng)景編輯器來(lái)人工搭建靜態(tài)場(chǎng)景和動(dòng)態(tài)場(chǎng)景,這種方式費(fèi)時(shí)費(fèi)力,而且也大大限制了場(chǎng)景要素組合的豐富化。針對(duì)此痛點(diǎn)問(wèn)題,賽目推出了基于大模型的仿真系統(tǒng),利用機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等人工智能技術(shù),不僅推出自動(dòng)標(biāo)注大模型、多模態(tài)檢測(cè)大模型和場(chǎng)景生成大模型等模塊,并且引入三維重建大模型加強(qiáng)渲染畫面真實(shí)性。


  通過(guò)上述模塊,賽目的路采場(chǎng)景轉(zhuǎn)換系統(tǒng)實(shí)現(xiàn)了以傳感器原始數(shù)據(jù)或者目標(biāo)集數(shù)據(jù)為輸入,通過(guò)感知融合、場(chǎng)景提取和生成等功能,輸出仿真測(cè)試所需的靜態(tài)路網(wǎng)和動(dòng)態(tài)場(chǎng)景進(jìn)行仿真,大大提高了仿真測(cè)試的效率。


圖:基于大模型的仿真系統(tǒng)框架


二  三維重建大模型


  本文首先介紹三維重建大模型。


  三維重建是指根據(jù)單視圖或者多視圖重建三維信息、構(gòu)建三維模型的過(guò)程。傳統(tǒng)的計(jì)算機(jī)圖形學(xué)的核心通過(guò)復(fù)雜的物理模型求解渲染方程。需要的不僅僅是場(chǎng)景中物體的幾何和材質(zhì)信息、相機(jī)的內(nèi)外參信息,更需要復(fù)雜的光照模型來(lái)模擬自然光照的影響。


  上述工作的重大突破來(lái)自Ben Mildenhall等人于2020發(fā)表的神經(jīng)輻射場(chǎng)(NeRF),根據(jù)對(duì)同一物體不同觀察視角的多張圖像,通過(guò)隱式的編碼表示場(chǎng)景實(shí)現(xiàn)三維重建的過(guò)程,利用體渲染生成新視角圖像。


  NeRF訓(xùn)練渲染流程可以總結(jié)如下:


1. 對(duì)于給定的相機(jī)光線,在光線上進(jìn)行采樣,對(duì)采樣點(diǎn)的空間坐標(biāo)及觀察方向進(jìn)行編碼,用深度復(fù)雜網(wǎng)絡(luò)存獲得輻射場(chǎng)信息;


2. 輻射場(chǎng)輸出空間點(diǎn)的顏色和密度;


3. 根據(jù)2的輸出用體素渲染方程獲得生成視角圖片;


4. 在訓(xùn)練階段與原視角圖片計(jì)算損失更新網(wǎng)絡(luò)。


圖:NeRF訓(xùn)練管線[1]


  下圖表示了輻射場(chǎng)的網(wǎng)絡(luò)結(jié)構(gòu),其中PE表示位置編碼,x為三維坐標(biāo)點(diǎn),d為觀察方向,MLP為多層感知機(jī),ReLU和Sigmoid分別為不同激活函數(shù)。輻射場(chǎng)網(wǎng)絡(luò)的輸入是空間坐標(biāo)及方差方向,輸出為對(duì)應(yīng)的顏色和密度值傳遞至體渲染模塊。


圖:NeRF網(wǎng)絡(luò)結(jié)構(gòu)


  體渲染主要為解決云、煙、果凍等非剛性物體進(jìn)行渲染建模,將其抽象成一團(tuán)粒子群,表現(xiàn)了光線穿過(guò)時(shí)光子和粒子交互的過(guò)程,產(chǎn)生的輻亮度的變化。其物理過(guò)程包括吸收、外散射、內(nèi)散射、放射。忽略背景光的影響,體渲染方程為:


  

上述方法主要針對(duì)室內(nèi)小型場(chǎng)景進(jìn)行三維重建,對(duì)于戶外場(chǎng)景、特別是自駕場(chǎng)景還有許多優(yōu)化的空間,相關(guān)內(nèi)容將在下節(jié)討論。


三  三維重建大模型-挑戰(zhàn)和對(duì)應(yīng)


  對(duì)于自駕場(chǎng)景,上述baseline方法面臨的挑戰(zhàn)包括:


1. 訓(xùn)練和渲染速度:baseline方法需要花費(fèi)數(shù)小時(shí)、甚至數(shù)天進(jìn)行訓(xùn)練和生成,這對(duì)于仿真來(lái)說(shuō)是難以接受的,同樣不利于算法的迭代優(yōu)化;


2. 生成畫質(zhì)清晰度:自駕場(chǎng)景包括了靜態(tài)路網(wǎng)、動(dòng)態(tài)環(huán)境參與者、背景建筑物、天空等等,需要同時(shí)將遠(yuǎn)景與近景清晰地渲染生成是一個(gè)極大的挑戰(zhàn);


3. 算法訓(xùn)練的過(guò)擬合現(xiàn)象:與baseline對(duì)同一物體360°環(huán)視圖像獲取不同,路采車輛一般沿著固定采集路線前進(jìn),對(duì)于同一物體的信息收集不夠充沛,影響最終的渲染質(zhì)量。


4. 動(dòng)態(tài)物體的添加和刪除:利用三維重建大模型能夠獲得不同主車視角的成像結(jié)果,但是對(duì)于測(cè)試場(chǎng)景生成需要靈活地控制環(huán)境參與者,因此需要模型能夠自由地對(duì)物體進(jìn)行添加和刪除。


基于上述問(wèn)題,我們提出了下述的研究路線。


圖:三維重建技術(shù)路線


  對(duì)于無(wú)邊界場(chǎng)景,由于可視范圍變大的原因通過(guò)NDC坐標(biāo)變化后的采樣過(guò)程會(huì)將近景采樣稀疏化,影響最終成像質(zhì)量導(dǎo)致物體模糊,保持近距離坐標(biāo)不變,遠(yuǎn)距離坐標(biāo)作非線性轉(zhuǎn)換是一種解決思路。坐標(biāo)轉(zhuǎn)換形式包括了[2-3]:


1. 半徑為r的球面內(nèi)保持坐標(biāo)不變,球面外坐標(biāo)以單位向量以及逆半徑重新定義,具體如下





對(duì)于[0,1]標(biāo)準(zhǔn)化坐標(biāo)系內(nèi)的空間坐標(biāo)點(diǎn)圖片,通過(guò)下述方法確定其在不同分辨率下的相鄰體素坐標(biāo):圖片,圖片和圖片分別為下取整和上取整。然后利用線性插值法獲得相應(yīng)分辨率下的特征,輸入至多層感知機(jī)中進(jìn)行訓(xùn)練。特征柵格主要流程如下。



  通過(guò)上述三維重建大模型方法,可以在自動(dòng)駕駛仿真領(lǐng)域提升模型的訓(xùn)練和渲染速度、重建畫質(zhì)的清晰度、輻射場(chǎng)中物體深度與表面的準(zhǔn)確度等等,同時(shí)能夠動(dòng)態(tài)添加環(huán)境車、行人等交通參與者進(jìn)行場(chǎng)景泛化,實(shí)現(xiàn)更靈活的場(chǎng)景生成需求。



參考文獻(xiàn)


[1] Mildenhall, Ben, et al. "Nerf: Representing scenes as neural radiance fields for view synthesis." Communications of the ACM 65.1 (2021): 99-106.


[2] Zhang, Kai, et al. "Nerf++: Analyzing and improving neural radiance fields." arXiv preprint arXiv:2010.07492 (2020).


[3] Barron, Jonathan T., et al. "Mip-nerf 360: Unbounded anti-aliased neural radiance fields." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022.


[4] Müller, Thomas, et al. "Instant neural graphics primitives with a multiresolution hash encoding." ACM Transactions on Graphics (ToG) 41.4 (2022): 1-15.



分享到:
 
反對(duì) 0 舉報(bào) 0 收藏 0 評(píng)論 0
滬ICP備11026917號(hào)-25