SLAM (simultaneous localization and mapping),中文翻译为即时定位与地图构建,可以帮助机器人解决在未知环境中的感知与定位问题,让机器人像人一样可以感知自己所处的位置,实现空间自我定位、实时地图构建、路径规划、导航避障等,在机器人、无人机、自动驾驶等领域具有广泛的应用。

按照传感器的不同,SLAM系统可以分为激光雷达SLAM(Lidar SLAM)和视觉SLAM(vSLAM),其中,激光雷达SLAM研究起步较早,理论和工程均比较成熟。视觉SLAM主要由相机来完成环境的感知工作,可以从环境中获取海量信息,具有极强的场景辨识能力,相较于激光雷达SLAM成本更低,因此得到了大家的广泛关注。

视觉SLAM系统主要由视觉里程计,后端优化和回环检测三大模块组成。其中,视觉里程计用来估算相邻图像相机的运动,给后端处理提供初始值;后端优化是指对不同时刻视觉里程计测量的相机姿态以及回环检测信息进行优化,从而得到全局一致的轨迹和地图;回环检测用来判断机器人是否到达过先前位置,解决位置估计随时间漂移的问题。最后根据估计的轨迹,建立与任务要求对应的地图。

但是视觉SLAM很容易受到运动速度、光线变化的影响,并且对无纹理物体无法进行特征提取,这也是目前视觉SLAM面临的主要问题。那么当前,视觉SLAM发展现状究竟如何?在不同场景下的工程化落地过程中又面临着哪些挑战呢?

10月17日晚7点,计算机视觉应用系列课第二季第3讲将开讲,由小觅智能CTO杨瑞翾主讲,主题为《如何利用vSLAM帮助机器人实现不同场景下的精准导航避障》。杨瑞翾老师将从视觉SLAM的发展历程、原理、不同算法实现到硬件选型、工程化落地等维度,为我们带来系统讲解。