多模態(tài)自動(dòng)駕駛混合渲染HRMAD:將NeRF和3DGS進(jìn)行感知驗(yàn)證和端到端AD測試
基于3DGS和NeRF的三維重建技術(shù)在過去的一年中取得了快速的進(jìn)步,動(dòng)態(tài)模型也變得越來越普遍,然而這些模型僅限于處理原始軌跡域內(nèi)的對象。
HRMAD作為一種混合方案,將傳統(tǒng)的基于網(wǎng)格的動(dòng)態(tài)三維神經(jīng)重建和物理渲染優(yōu)勢結(jié)合,支持在任意位置部署網(wǎng)格動(dòng)態(tài)代理,自由調(diào)整環(huán)境條件,在多個(gè)相機(jī)視角下進(jìn)行自由切換,與傳統(tǒng)仿真方法相比有效減少了領(lǐng)域差距,同時(shí)保留了可控性。
一、方法描述
HRMAD提出的NeRF2GS雙模型訓(xùn)練范式顯著提升了合成質(zhì)量,尤其是道路和車道標(biāo)志,同時(shí)滿足交互式幀率。通過此塊級并行訓(xùn)練架構(gòu),可以處理超過10萬平方米場景重建,并同步傳輸出分割掩膜/法線圖/深度圖。通過物理光柵化/光線追蹤渲染后端,HRMAD支持多個(gè)相機(jī)模型、LiDAR和Radar的實(shí)時(shí)多模態(tài)輸出。如圖1所示的模型架構(gòu)。
圖1
具體而言,HRMAD基于RGB相機(jī)、GNSS和LiDAR的同步數(shù)據(jù)進(jìn)行模型訓(xùn)練。該方案結(jié)合了NeRF優(yōu)秀的泛化能力和3DGS實(shí)時(shí)的渲染速度,通過T-S結(jié)構(gòu),將NeRF生成的深度、法線和外觀監(jiān)督信息傳遞給3DGS模型,并通過正則化將LiDAR深度數(shù)據(jù)引入NeRF,從而實(shí)現(xiàn)更準(zhǔn)確的幾何結(jié)構(gòu)建模。
傳統(tǒng)基于透視投影的渲染方法通常依賴于特定的投影模型,為了在3DGS場景中適配任意傳感器,HRMAD提出了一種新的渲染算法架構(gòu),如下圖2所示。
圖2
該架構(gòu)基于共享代碼庫實(shí)現(xiàn)了光柵化和光線追蹤渲染,用于計(jì)算高斯沿射線的貢獻(xiàn)。這樣不僅能夠在三維重建場景中支持任意相機(jī)畸變模型,還能夠減輕LiDAR仿真中偽影的產(chǎn)生。圖3展示了在aiSim中采用HRMAD渲染場景并配置LiDAR后,點(diǎn)云的可視化效果。
圖3
圖4表明HRMAD在非常規(guī)視角下RGB、深度、法線和分割(基于Mask2Former)模態(tài)下的幾何細(xì)節(jié)和表面特性,重建面積約為165000平方米(ZalaZone測試場,此重建場景將于aiSim5.7版本進(jìn)行發(fā)布)。
圖4
二、下游任務(wù)驗(yàn)證
1、重建質(zhì)量驗(yàn)證
由于HRMAD采用的是基于雙邊網(wǎng)格的色彩校正方法,傳統(tǒng)的PSNR指標(biāo)不再適用,而SSIM和LPIPS指標(biāo)對結(jié)果相似性更為敏感,但從結(jié)果上看,這兩個(gè)指標(biāo)仍然受到ISP解耦導(dǎo)致的RAW與重建圖像之間色彩失配的影響。這一影響體現(xiàn)在了評估結(jié)果中,如表1,表中對比了原始3DGS和TCLC-GS在6個(gè)Waymo場景上的指標(biāo)表現(xiàn)。
表1
2、語義分割驗(yàn)證
在語義分割上分別從三個(gè)角度評估模型性能,首先通過統(tǒng)計(jì)所有像素中語義分類一致的比例,反映全局重建一致性。
通過Mask2Former獲取真實(shí)圖像上計(jì)算的分割Mask,并與HRMAD-NeRF(Teacher)和HRMAD-NeRF(Student)渲染得到的分割Mask進(jìn)行比較,驗(yàn)證重建的準(zhǔn)確性。同時(shí)為了降低道路、天空等易分割區(qū)域?qū)φw結(jié)果的偏差影響,針對"Car"進(jìn)行單獨(dú)IoU計(jì)算。
為確保驗(yàn)證過程的公平性,真實(shí)圖像被重投影至與渲染過程一致的無畸變針孔相機(jī)參數(shù)空間,當(dāng)重建結(jié)果正確標(biāo)注了遠(yuǎn)距離或被遮擋物體,而Mask2Former因輸入信息有限導(dǎo)致誤判時(shí),此類誤差會(huì)被計(jì)入評估指標(biāo)。同時(shí)在夜間拍攝場景和相機(jī)直對太陽的場景中(如場景11037651和14663356),掩膜一致性顯著下降。結(jié)果如表2所示。
表2
其次在非常規(guī)視角下進(jìn)行模型渲染,并基于Mask2former生成的Mask與模型預(yù)測Mask進(jìn)行比較。此渲染視角沿自車軌跡生成,并在[-1,3]米范圍內(nèi)平移前視相機(jī)仿真模型。表3展示了針對道路表面信息和車輛的重建性能。其中Car類型的重建性能相對較低,這是由于Mask2Frame無法檢測遠(yuǎn)處或被遮擋的物體,從而擴(kuò)大了差異。圖5顯了示相關(guān)結(jié)果,綠色為匹配區(qū)域,藍(lán)色和橙色分別表示模型預(yù)測Mask和Mask2Former的Mask輸出。
表3
圖5
最后在非常規(guī)渲染視角下(高5m,橫向偏移2m,向下偏轉(zhuǎn)25°),針對車道線和路沿語義分割結(jié)果進(jìn)行了定性評估,如圖6所示。
圖6
3、3D目標(biāo)檢測驗(yàn)證
為了驗(yàn)證HRMAD在3D目標(biāo)檢測上的一致性,采用在Waymo Open數(shù)據(jù)集訓(xùn)練中公開的DEVIANT 3D目標(biāo)檢測模型,進(jìn)行定量和定性實(shí)驗(yàn)。
定量實(shí)驗(yàn)中,在Waymo-13469905891836363794片段中從[0,3]橫向偏移視角下進(jìn)行驗(yàn)證,并通過平移變換后的3DBBox定量計(jì)算。定性實(shí)驗(yàn)選取三個(gè)駕駛片段進(jìn)行靜態(tài)環(huán)境渲染,并基于網(wǎng)格渲染添加動(dòng)態(tài)車輛,主要用于評估仿真生成的車輛是否引入了領(lǐng)域差距。
表4基于Waymo指標(biāo)進(jìn)行驗(yàn)證,Original為原始圖像。特別在近距離下,HRMAD的表現(xiàn)性能要優(yōu)于原始圖像,這是由于原始圖像中假陽FP數(shù)量更高。在非常規(guī)視角渲染下,觀察到的差異主要是橫向偏移視角下目標(biāo)截?cái)?/strong>的數(shù)量增加,但整體檢測結(jié)果在很大程度上保持一致。
表4
圖7為DEVIANT模型在HRMAD渲染W(wǎng)aymo場景中的表現(xiàn)。
圖7
三、結(jié)語
雖然HRMAD渲染方法旨在減少區(qū)塊邊界的不連續(xù)性,但仍不可避免地會(huì)產(chǎn)生可見的偽影,特別是在天空和遠(yuǎn)距離目標(biāo)區(qū)域中。比如天空的RGB重建效果良好,但在自動(dòng)駕駛仿真測試場景中,在非常規(guī)視角下仍然會(huì)導(dǎo)致偽影和結(jié)構(gòu)痕跡。
在下游任務(wù)中,HRMAD針對自動(dòng)駕駛場景的評估結(jié)果已非常接近真實(shí)數(shù)據(jù),但由于樣本有限,仍需要更大規(guī)模的數(shù)據(jù)集進(jìn)行進(jìn)一步驗(yàn)證。未來的研究也會(huì)致力于進(jìn)一步縮小重建場景和真實(shí)數(shù)據(jù)之間的領(lǐng)域差距,具體來說,可以通過探索層次化高斯?jié)姙R來減少區(qū)塊偽影,并利用生成的法線信息改進(jìn)LiDAR強(qiáng)度模擬,來更好地反應(yīng)點(diǎn)云數(shù)據(jù)的方向敏感強(qiáng)度。
目前,HRMAD生成場景已集成在aiSim中,可在不同傳感器模型配置方案下,實(shí)現(xiàn)端到端仿真測試交互式驗(yàn)證和測試。
相關(guān)產(chǎn)品
免責(zé)聲明
- 凡本網(wǎng)注明“來源:化工儀器網(wǎng)”的所有作品,均為浙江興旺寶明通網(wǎng)絡(luò)有限公司-化工儀器網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,未經(jīng)本網(wǎng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明“來源:化工儀器網(wǎng)”。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責(zé)任。
- 本網(wǎng)轉(zhuǎn)載并注明自其他來源(非化工儀器網(wǎng))的作品,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé),不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。其他媒體、網(wǎng)站或個(gè)人從本網(wǎng)轉(zhuǎn)載時(shí),必須保留本網(wǎng)注明的作品第一來源,并自負(fù)版權(quán)等法律責(zé)任。
- 如涉及作品內(nèi)容、版權(quán)等問題,請?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。