在复杂的城市场景中实现自动驾驶需要全面且准确地感知环境。传统的3D感知方法重于目标检测,缺乏环境细节信息的稀疏表示。3D占用预测方法能够估计车辆周围的3D占用,让自动驾汽车获得更全面的场景表示。稠密的3D占用预测提供了准确性,但也提高了计算需求;而全稀疏的3D占用预测效率高,但是缺乏细节信息。
为此,纽约大学联合博世集团提出一个更灵活且高效的自适应分辨率占用预测框架AdaOcc,能够在各种驾驶场景中实现精确的 3D 语义占用预测。
AdaOcc将以目标为中心的3D重建和整体占用预测集成到一个框架内,仅在在感兴趣区域(ROIs)进行高分辨率的3D重建,同时在其他区域保持较低分辨率,以实现计算资源的优化分配。这种方法不仅提高了关键区域的细节捕捉能力,而且通过点云表示高细节的3D表面,突破了传统占用网格分辨率的限制,从而在保持整体计算效率的同时,显著提升了自动驾驶车辆的环境感知精度。
通过在nuScenes数据集上进行全面实验,证明了AdaOcc相比于现有方法有了明显提升,能够在各种驾驶场景中提供准确的3D语义占用预测。在近距离场景中,AdaOcc在IOU上超过先前的基线13%,在Hausdorff距离上超过了40%。
11月19日上午10点,智猩猩邀请到论文一作、纽约大学 AI4CE 实验室在读博士陈超参与「智猩猩自动驾驶新青年讲座」第41讲,主讲《面向自动驾驶的自适应分辨率占用预测方法AdaOcc》。
讲者
陈超,纽约大学 AI4CE 实验室在读博士
陈超,纽约大学 AI4CE 实验室的计算机科学专业博士最后一年在读生。我的研究方向是机器人学、计算机视觉和机器学习,目标是成为机器人领域的全栈研究员。
第 41 讲
主 题
《面向自动驾驶的自适应分辨率占用预测方法AdaOcc》
提 纲
1、混合分辨率占用预测的重要性
2、以物体为中心3D占用预测的重要性
3、利用AdaOcc实现精确的3D语义占用预测
4、与先前方法的对比及分析
5、总结与后续工作
直 播 信 息
直播时间:11月19日10:00
成果
论文标题《AdaOcc: Adaptive-Resolution Occupancy Prediction》
论文链接https://arxiv.org/abs/2408.13454
如何报名
有讲座直播观看需求的朋友,可以添加小助手“陈新”进行报名。已添加过“陈新”的老朋友,可以给“陈新”私信,发送“自动驾驶41”进行报名。对于通过报名的朋友,之后将邀请入群进行观看和交流。