AIGC动态欢迎阅读
原标题:纽约大学联合博世提出自适应分辨率占用预测框架AdaOcc | 一作纽约大学陈超博士主讲预告
关键字:方法,语义,猩猩,细节,大学
文章来源:智猩猩GenAI
内容字数:0字
内容摘要:
在复杂的城市场景中实现自动驾驶需要全面且准确地感知环境。传统的3D感知方法重于目标检测,缺乏环境细节信息的稀疏表示。3D占用预测方法能够估计车辆周围的3D占用,让自动驾汽车获得更全面的场景表示。稠密的3D占用预测提供了准确性,但也提高了计算需求;而全稀疏的3D占用预测效率高,但是缺乏细节信息。
为此,纽约大合博世集团提出一个更灵活且高效的自适应分辨率占用预测框架AdaOcc,能够在各种驾驶场景中实现精确的 3D 语义占用预测。AdaOcc将以目标为中心的3D重建和整体占用预测集成到一个框架内,仅在在感兴趣区域(ROIs)进行高分辨率的3D重建,同时在其他区域保持较低分辨率,以实现计算资源的优化分配。这种方法不仅提高了关键区域的细节捕捉能力,而且通过点云表示高细节的3D表面,突破了传统占用网格分辨率的限制,从而在保持整体计算效率的同时,显著提升了自动驾驶车辆的环境感知精度。通过在nuScenes数据集上进行全面实验,证明了AdaOcc相比于现有方法有了明显提升,能够在各种驾驶场景中提供准确的3D语义占用预测。在近距离场景中,AdaOcc在IOU上超过先前的基线13%,在Hausdor
原文链接:纽约大合博世提出自适应分辨率占用预测框架AdaOcc | 一作纽约大学陈超博士主讲预告
联系作者
文章来源:智猩猩GenAI
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...