自2019年起,百度Apollo开发者社区在智东西公开课持续推出十场专场公开课,对Apollo中的激光雷达感知、仿真可视化、高精地图与定位、预测引擎、低速微型车开发套件、软件包开发以及自动驾驶决策规划与DRL架构等核心技术和解决方案进行了深入讲解。错过直播的朋友可以点击文章底部“阅读原文”进行回看。

11月30日,「百度Apollo技术公开课第11讲」将开讲。在这一讲中,百度研发工程师小胡老师将围绕主题《Apollo感知工程框架设计与实践》进行讲解。

Apollo 自动驾驶感知的开发流程可以分为模型训练、模型部署,测试和验证三个步骤:

(1)模型训练:根据 Camera 感知、Lidar 感知等任务类型,选择对应的模型。目前常见的 2D 图像目标识别模型有 YOLO, Faster-RCNN 等,常见的Lidar目标识别模型有 Pointpil1lar 等,开发者可以根据自己的需要选择好对应的模型,然后采用公开数据集或者自己采集数据来训练模型。训练完模型之后,那么接下来就需要把模型部署到Apollo。

(2)模型部署:根据类型的不同,Apollo 中的感知任务分为红绿灯识别、车道线检测、目标识别和跟踪等。每个任务实际上是一个任务流水线,分为几个步骤来完成。每个步骤称为一个 stage,每个 stage 中可以选择一个或者几个算法插件 (plugin)。这样开发者可以根据需要开发新的任务流水线,或者沿用当前的任务流水线,替换不同的算法插件。部署完成之后接下来要测试和验证模型的效果。

(3)测试和验证:开发者就可以通过播放 record 包的形式或者实际上车测试进行验证,通过可视化工具来查看感知结果。

在最新的Apollo Beta公测版中,Apollo不仅对感知框架与模型进行了升级,还在工程框架引入软件包管理(模块软件包和buildtool工具)。从而让开发者可以使用软件包的方式启动Apollo感知,并通过播放 Apollo record 数据包观察感知激光雷达运行过程中的检测结果。

本次公开课中,小胡老师首先会介绍Apollo感知框架升级思路与方案,之后将重点讲解任务流水线设计。最后,他也会演示使用Apollo模型管理工具。

「百度Apollo技术公开课第11讲」将以视频直播形式进行,包含40分钟主讲和20分钟问答。同时,针对本次公开课,也组建了专属交流群,届时小胡老师也将加入,欢迎感兴趣的开发者申请。