我爱编程机器人视觉SLAM技术交流

【ipaper】Visual Odometry 和 Visual

2018-09-01  本文已影响1人  8416ac9040d9

摘要(Abstract)

本文旨在为研究机器人和自动化系统特别是那些对机器人定位和建图(localization and mapping)感兴趣的研究人员铺平道路( pave the way )。我们讨论了机器人导航要求的基本原理,并且回顾了最先进的技术,这些技术构成了现存的关于移动机器人localization and mapping解决方案的基础。我们讨论的主题包括基本的定位技术例如wheel odometry(车轮(编码器)里程计)和 dead reckoning(航迹推演),以及更加先进的Visual Odometry(VO 视觉里程计)和SLAM 技术。我们使用特征匹配/跟踪和光流技术讨论单目和双目视觉系统中的VO。我们讨论并且比较了最常见的SLAM方法的基础知识,例如扩展卡尔曼滤波器SLAM(EKF-SLAM),粒子滤波器和最新的RGBD-SLAM。我们还提供构成这些技术的方法,例如特征提取(i.e. SIFT,SURF, FAST),特征匹配,异常值去除(outlier removal)和 数据关联技术(data association techniques)。

介绍(introduction)

在过去的几十年里,移动机器人和自主系统(autonomous systems)引起了全世界研究人员的极大关注,取得了重大进展和突破。目前移动机器人能够自主的执行复杂的任务,而在过去,人类的输入和交互还是需要迫切解决的问题。在这些应用中,移动机器人需要执行复杂的任务,这些任务需要在复杂和动态的室内和室外环境中进行导航而不需要人类的干预。为了高效安全的实现自动导航和路径规划,机器人需要能够在其环境进行本地化(localize itself)。最后,我们详细的研究了定位问题并且提供了各种技术来解决问题。

A block diagram showing the main components of a: a VO and b filter based SLAM system

图一:A block diagram showing the main components of a: a VO and b filter based SLAM system

最简单的定位方法是使用wheel odometry依靠车轮的编码器来测量机器人的车轮旋转量。轮子旋转量的测量和机器人的运动模型相结合,以找到机器人相对于全局参考系的当前位置。
wheel odometry有一些主要的局限性。首先他仅局限于地面的车辆,然后由于定位是递增的(incremental)(基于先前估计的位置),测量误差会随着时间累积,导致估计的机器人姿态偏离其实际位置。wheel odometry有许多误差来源,最主要的由于不平坦的地面和湿滑地面上车轮打滑。

为了克服这些限制,已经提出了其他定位策略,例如使用惯性测量单元(IMU),GPS,激光测距仪和最近的VO[88]以及同时定位和建图(SLAM)[36,38]方法。VO 是仅使用连接的一个或者多个相机的输入来估计一个agent(例如,车辆,人和机器人)的运动的过程[101]。SLAM是一个过程,在这个过程中,机器人需要在未知环境中进行本地化(localize itself ),并在外部传感器(或单个传感器)的帮助下,在没有任何先验信息的情况下同时构建该环境的地图。虽然VO并没有解决漂移问题,但研究人员已经证明VO方法的表现明显优于车轮里程计和航位推算技术[54],并且相机的成本与精确的IMU和激光扫描仪相比要低得多。VO和SLAM之间的主要区别在于VO主要关注局部一致性,旨在逐步估计姿势后相机/机器人姿势的路径,并可能执行局部优化(local optimization)。而SLAM旨在获得相机/机器人轨迹和地图的全局一致估计。通过重新访问先前已经mapping的区域(loop closure)用于减少估计的漂移来实现全局的一致性。图一现实了VO和SLAM系统的概述。这篇论文扩展了过去的visual odometry[45,101]。本文与前面提到的教程之间的主要区别在于,除了VO实现之外,我们还旨在提供用于可视SLAM的基本框架和方法。该论文还包括Visual SLAM领域的重大发展,例如那些将RGB-D传感器用于环境的密集3D重建的领域。

在下一节中,我们将讨论该领域的相关工作。在LocalizationMapping中,我们将分别讨论他们。在“RGB-D SLAM”部分,我们将介绍用于解决V-SLAM问题的RGB-D SLAM方法。 最后,我们将在“结论”部分结束本文。

原文地址

https://link.springer.com/article/10.1007/s40903-015-0032-7

参考文献

[36].Durrant-Whyte, H., Bailey, T.: Simultaneous localization and mapping: part I. IEEE Robot. Autom. Mag. 13(2), 99–110 (2006)

[38].Durrant-Whyte, H., Rye, D., Nebot, E.: Localization of autonomous guided vehicles. In: Proceedings of the IEEE International Conference on Robotics and Automation, vol. 7, pp. 613–625 (1996)

[45].Fraundorfer, F., Scaramuzza, D.: Visual odometry: part II: matching, robustness, optimization, and applications. IEEE Robot. Autom. Mag. 19(2), 78–90 (2012)

[54].Helmick, D., Cheng, Y., Clouse, D., Matthies, L., Roumeliotis, S.: Path following using visual odometry for a Mars Rover in high-slip environments. In: Proceedings of 2004 IEEE Aerospace Conference, vol. 2, pp. 772–789 (2004). doi: 10.1109/AERO.2004.1367679

[88].Nistér, D., Naroditsky, O., Bergen, J.: Visual odometry. In: Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2004), vol. 1, pp. I–652 (2004)

[101].Scaramuzza, D., Fraundorfer, F.: Visual odometry: part I—the first 30 years and fundamentals. IEEE Robot. Autom. Mag. 18(4), 80–92 (2011)

上一篇下一篇

猜你喜欢

热点阅读