3

IROS 2021 | 激光视觉融合新思路?Lidar强度图+VPR

 2 years ago
source link: https://zhuanlan.zhihu.com/p/483910659
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

IROS 2021 | 激光视觉融合新思路?Lidar强度图+VPR

专注SLAM、点云、三维重建、结构光、自动驾驶、机械臂抓取等

论文阅读《Visual PlaceRecognition using LiDAR Intensity Information》

这个文章主要是一个实验分析的工作,文章没有提出新的方法,但是提出了一个假设:激光雷达强度图像可以用于VPR,然后通过目前现有方法的融合证明了这个假设的可行性。在该假设成立的前提下,激光视觉融合或许可以有新的思路.

作者:晃晃悠悠的虚无周 文章来源:微信公众号「3D视觉工坊」

Motivation

VPR(Visual placerecognition)是一个常见的任务,但是从来没有方法将点云强度构成的图像应用到VPR方法上,考虑到圆柱投影后的点云强度图的密集性,作者认为这个思路是可行的。所以在这个工作中作者分析了VPR如何与 LiDAR 数据结合使用,并对不同的数据集进行了评估。结果表明,这种方法的确是可以确定闭环的有效方法。

Contribution

1、分析评估现有视觉位置识别技术在应用于 3D LiDAR 扫描仪的强度提示时的性能。

2、使用 3D LiDAR 在多个机器人数据集上测试了 VPR 方法的几种变体。实验表明,对现有 VPR 技术的直接调整可以产生可靠的回环,从而实现大规模的仅激光 LiDAR SLAM

Content

1、激光雷达

某种程度上,激光雷达强度是一个关于反射范围以及波长的函数:

A表示以固定角测量的光束孔径,β是物体的反射率,θ是介质的吸收,反射率β受成分、粗糙度和水分含量以及光束撞击表面的入射角的影响,具体示意图如下

测量信号第一次返回的时钟精度限制了距离测量的精度。但是可以通过确定发射和接收信号之间的相位差可以获得额外的精度增益。以更高准确度为目标的扫描仪会发送多个脉冲,这反过来又限制了距离测量的频率。现在单个传感器的测量频率 fm 可能达到 50 kHz。通过选择光束的旋转频率fr,角分辨率直接为2πfm fr。机械方面的考虑限制了传感器的旋转速度。在 2D 情况下,光束可以通过相对较小的旋转镜偏转,在 3D 情况下,传感器可以携带多达128个测量单元。

扫描仪还测量强度信息。该强度信息被归一化并离散化为 8 或 16 位值。强度取决于表面特性,还有几个其他因素会影响测量。上述强度公式是连续的,所以当测量相同的 3D 点时,视点的轻微变化会产生强度的轻微变化。

之前针对 SLAM 和位置识别的 3D-LiDAR 的大部分工作都集中在使用距离测量上,忽略其他可能有价值的信息。这也可能是因为机器人技术中使用的旧激光雷达的强度信息没有那么精确。最近的 3D-LiDAR 性能很好。当激光雷达强度投影成全景图像时,激光雷达强度会让人想起使用灰度相机获得的强度。毫无疑问,LiDAR 强度图像的质量与相机等无源传感器获取的图像相比仍然较低。但是,在机器人技术中,特别是在 VPR 任务中,3D-LiDAR 扫描生成的强度图像有诸如不受外部光照条件和阴影影响等优点。

自动驾驶和自动驾驶汽车的普及推动了 3D-LiDAR 的改进。在这个应用领域,它们的主要用途是提供局部 3D 重建和障碍物信息。传统上,使用 LiDAR 进行全局 3D 重建是闭环的重大挑战。并且目前基于激光雷达进行回环的工作也相对较少。相比之下,CV社区在地点识别和回环任务上投入了大量精力,取得了令人印象深刻的成果。因此,本文的目的是分析常见 VPR 方法与 LiDAR 强度信息结合使用的可行性

2.应用于圆柱形激光雷达强度图像的视觉位置识别(VPR)这一部分主要介绍的是作者如何处理来自激光扫描的图像形成,然后回顾VPR的大致结构。A.图像形成执行圆柱投影,将激光雷达点从笛卡尔坐标系转换成球坐标系:

假设光束均匀分布,可以计算 (u,v) 如下

如果多个点落在同一个图像像素中,则仅保留具有最近距离的值。在创建图像的每个像素中,存储强度值而不是距离。垂直光束的不均匀分布可能会导致生成的图像中出现空白,通常是整个水平行。这个问题可以通过缩小垂直分辨率或执行插值来后验解决。在本文的实验中,作者采用了第二种方法。为了从全景图像中删除空行,首先使用二进制阈值和与图像一样宽的水平内核来检测它们。然后通过双线性插值计算空行中每个像素的插值。下图显示了这个过程的结果

B.特征提取

分别实验测试了ORB,BRISK,SURF,Superpoints等方法,具体结果见实验部分。C.VPR作者在实验中测试的方法是基于树的HBST和基于词袋的DBoW2,具体结果见实验部分。3.实验实验主要有5个组合配置:FAST - ORB – HBST 、FAST - BRISK – HBST、FAST - ORB - DBoW2、Superpoint - DBoW2、FAST - SURF - DBoW2实验数据集配置如下:

使用 FAST 作为关键点检测器,Superpoint 直接为所有实验输出成对的关键点和描述符。对于每个数据集,提取了以下描述符:ORB、BRISK 作为BIN,Superpoint 和 SURF 作为浮点。针对检索方法,使用 HBST 参数 δmax = 0.1 和 Nmax = 50 来获取BIN特征,详细参数如下:

针对上述的五个配置,测试了F1指标,整体方法精度均可行:

PR曲线指标测试如下:

时间消耗如下:总体来讲,在测试的方法之中,ORB与 HBST 和 DBoW2 相结合的结果最佳。Superpoint-DBoW2 组合的性能也不错。但是浮点描述符的计算成本也相对更高。在 The Newer College 数据集上的准确度不如在 IPB Car 的自记录数据集上获得的准确度。因为这些数据是在校园中行走时记录的,所以视点变化比较明显。

Conclusion

这篇文章的话,主要是一个实验分析的工作。首先作者提出了激光雷达强度图像可以用于VPR的假设,然后通过目前现有的方法分析了将激光雷达强度图像用于闭环的VPR的性能,实验在四个不同的数据集上进行了测试,实验结果表明了将激光雷达强度图像应用于VPR是非常可行的。虽然这篇文章没有提出新的方法,但是这份工作对于激光雷达和视觉的融合有比较大的启发意义,比如说激光视觉融合回环。

本文仅做学术分享,如有侵权,请联系删文。

3D视觉精品课程推荐:

1.面向自动驾驶领域的多传感器数据融合技术

2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)

3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进

4.国内首个面向工业级实战的点云处理课程

5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解

6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦

7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化

8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)

9.从零搭建一套结构光3D重建系统[理论+源码+实践]

10.单目深度估计方法:算法梳理与代码实现

11.自动驾驶中的深度学习模型部署实战

12.相机模型与标定(单目+双目+鱼眼)

13.重磅!四旋翼飞行器:算法与实战

14.ROS2从入门到精通:理论与实战

更多干货

欢迎加入【3D视觉工坊】交流群,方向涉及3D视觉、计算机视觉、深度学习、vSLAM、激光SLAM、立体视觉、自动驾驶、点云处理、三维重建、多视图几何、结构光、多传感器融合、VR/AR、学术交流、求职交流等。工坊致力于干货输出,为3D领域贡献自己的力量!欢迎大家一起交流成长~

添加小助手微信:dddvision,备注学校/公司+姓名+研究方向即可加入工坊一起学习进步。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK