2. 中国科学院大学, 北京 100049;
3. 北京大学城市与环境学院, 北京 100871
2. University of Chinese Academy of Sciences, Beijing 100049, China;
3. College of Urban and Environmental Sciences, Peking University, Beijing 100871, China
近年来,集成了激光雷达(light detection and ranging, LiDAR)、惯性测量单元(inertial measurement unit, IMU)和全球导航卫星系统(Global Navigation Satellite System, GNSS)的移动激光雷达平台被广泛用于获取城市三维地理信息数据[1-2]。GNSS/IMU组合导航是目前移动测量平台最常用的定位方法,然而由于高楼、桥梁、隧道、行道树等城市地物对GNSS信号的遮挡,城市中易存在大量弱、无GNSS信号区域,仅凭这种定位方法难以有效实现大范围城市场景的高精度制图[3]。激光同时定位与地图构建(simultaneous localization and mapping, SLAM)技术可利用激光雷达增量式构建地图的同时,实现移动测量平台自身的相对定位,为解决弱、无GNSS信号环境下的制图问题提供了有效的解决方案[4],从而被广泛应用于高精度制图中[5-6]。
目前,激光SLAM方法按照激光和IMU的融合方式可分为松耦合和紧耦合[7-9]。松耦合方法独立计算激光和IMU各自的运动量,然后,对它们的位姿估计结果进行融合。文献[10]提出的LOAM方法是目前较为经典的松耦合方法,该方法通过结合高频里程计粗定位和低频建图精定位的方式,实现了基于旋转2D LiDAR的同步定位和制图。文献[11]在LOAM的基础上,引入视觉里程计作为激光里程计的前端,形成了V-LOAM方法,进一步提高了SLAM的精度。文献[12]在LOAM基础上,利用点云分割降低特征数量,结合两步配准和闭环约束削弱累积误差,形成了适合地面无人车的LeGO-LOAM方法。然而,松耦合方法未能联合优化各传感器的观测量,在特征缺乏区域易存在累积误差大、稳健性差等问题[4]。
与松耦合方法相比,紧耦合方法直接融合了激光原始特征信息和惯性单元测量值等输出运动状态量,具有稳健性强且制图精度高的优点[8]。近年来,多种紧耦合方法被相继提出。例如文献[13]将IMU预积分值应用到点云的运动畸变补偿中,实现了LiDAR和IMU的外参校正;文献[14]基于视觉惯性紧耦合SLAM方法引入了一种紧耦合的激光惯导SLAM框架,联合优化激光雷达特征点和IMU的观测量,与LOAM相比获得了更准确的结果,但是其效率较低,惯导初始化条件复杂,场景特征缺乏区域稳健性较差。文献[15]提出了一种以机器人为中心的激光雷达惯性状态估计器R-LINS,该方法利用迭代误差状态卡尔曼滤波器修正了机器人的状态估计,但存在长期运行会产生漂移的问题。文献[16]提出一种面向移动机器人的激光惯导紧耦合实时定位方法,该方法具有较好的实时性,但在开阔的室外环境下定位精度达分米级。文献[17]构建了基于因子图的紧耦合激光惯导里程计框架(LIO-SAM),将不同来源的IMU预积分因子、激光里程计因子、GNSS因子和闭环环因子进行联合优化,取得了较高的测图精度,但该方法只是简单地将GNSS因子加入联合优化中,未考虑复杂环境下GNSS异常对SLAM结果的影响。总体而言,目前已有方法主要针对小范围的室外街道或室内建筑场景,应用的地理覆盖范围有限,在场景复杂、GNSS信号不稳定、制图范围广且精度要求高的城市测绘应用中仍存在着累积误差大、稳健性差的问题[18-19]。
为了解决城市移动测量制图的难点,本文在LOAM和LeGO-LOAM的基础上,融合了差分GNSS轨迹、惯性测量单元位姿、激光序列帧数据开展高精度SLAM制图。本文的主要贡献可归纳为:①针对城市地物形状特性,联合杆状和面状特征点,采用先高程方向后水平方向的两步优化策略实现激光序列帧的相对位姿估计,提高了局部地图配准精度,降低了城市环境下SLAM的累积误差。②针对GNSS信号不稳定的特点,在全局地图构建及优化过程中增量式的加入GNSS角点构成的位置因子约束,实现了复杂城市场景下厘米级的高精度制图。
1 总体框架设计本文提出的紧耦合激光SLAM算法在LOAM和LeGO-LOAM的基础上,融合了IMU预积分因子和GNSS因子,并在激光序列帧数据的初始相对位姿估计和全局地图构建及优化中分别引入了杆状和面状特征点和多因子联合优化的策略。如图 1所示,本文提出的紧耦合激光SLAM系统可分为7个模块。
|
| 图 1 系统框架 Fig. 1 Framework of the proposed method |
(1) IMU预积分。根据IMU运动方程对采样间隔的观测量进行积分,获取激光点云序列帧时刻对应位姿。
(2) 激光运动补偿和特征提取。利用IMU积分得到的相对运动位姿修正点云的运动畸变,随后提取杆状和面状特征点。
(3) 特征匹配和相对位姿估计。匹配序列帧同名特征,利用Levenberg-Marquardt(L-M)方法求解获取相邻帧的相对运动位姿。
(4) 局部地图构建及优化。联合序列帧同名特征点、初始相对位姿、IMU预积分因子优化构建局部地图。
(5) 闭环检测。新的局部地图构建完成后与历史局部地图进行特征匹配检测闭环。
(6) GNSS位置因子构建。依据GNSS轨迹方位变化提取出GNSS角点构成GNSS位置因子。
(7) 全局地图构建及优化。当前局部地图与历史地图存在闭环,则联合局部地图相对位姿、GNSS位置因子、IMU预积分因子、闭环因子等优化构建全局地图,不存在闭环则直接更新全局地图。
2 基于特征点匹配的相对位姿估计准确估计激光序列帧的相对位姿是构建局部地图的必要前提。本文采用IMU预积分的方式获得激光序列帧对应时刻的相对运动[13-14],基于此消除移动平台位姿变换所引起的运动畸变。在实现各单帧点云的畸变纠正后,通过配准得到激光序列帧数据的初始相对位姿估计。在点云配准中,迭代最近点(iterative closest point, ICP)算法是目前最常用的配准方法,然而由于城市场景移动测量数据采集中易存在大量的移动目标,且往返区域遮挡现象严重,直接基于原始激光点数据的ICP配准失败率高,因此本文采用基于特征点的配准方法,通过特征匹配得到同名特征点后,利用L-M法迭代求解激光序列帧间的相对位姿。
2.1 特征点提取考虑到相对位姿估计中地面点对于垂直方向的约束较好,而杆状点和面状点则对水平方向的平移和旋转的约束较好,本文先进行地面点和非地面点的区分,随后进一步在非地面点中提取杆状和面状特征点[20-21],具体处理流程如下:
(1) 首先将单帧扫描获取激光点集ρt={ρ1, ρ2, …, ρn}生成深度图像(c, r),其中每个点ρi对应深度图像的一个像素,c和r分别为图像的列数和行数,图像深度值为ρi到传感器中心的距离。
(2) 将深度图像的每一列c中各像素对应的测距值转化为角度值αr-1, cr,该角度代表了该像素与相邻行像素间的倾斜角度。
(3) 获取角度图像后进一步利用Savitsky-Golay滤波算法进行平滑处理以削弱噪声的影响。最后将最低行中角度小于45°的所有像素标记为初始地面,并利用广度优先算法(breadth-first search, BFS)在角度图像上搜索与地面像素间角度差值小于5°的像素,将其标记为地面像素[22]。
(4) 根据地面像素,将其对应的点云标记为地面特征点fg,其余为非地面点,并对各地面点计算其法向nfg。
(5) 在非地面点中,对于每个点通过邻域搜索的方式计算其3个特征值(λ1, λ2, λ3)和对应的特征向量(v1, v2, v3),从而计算4种点云几何特征(线形DiL、面形DiP、球形Dis,垂直度DiV),根据经验阈值将DiL≫DiP&&DiS,DiV>0.9的点视为杆状特征点fl,DiP≫DiL&&DiS,DiV>0.8的点视为面状特征点fp,并同时计算杆状点的主方向nfl和面状点的法向量nfp[23-24]
(1)
(2)
本文通过不同帧间特征点的匹配得到同名特征点[25],对于每一个特征点,本文在其相邻帧的特征点集中利用KDtree搜索其最邻近的同属性特征点,并将法向和主方向夹角均小于5°,且距离小于1 m的特征点对视为同名特征点[26-27]。同名特征提取后,联合点到线距离和点到面距离最小构建残差方程,利用L-M方法求解获取相邻帧的相对运动位姿[28]。考虑地面点对于垂直方向的约束较好,而杆状点和面状点则对水平方向的平移和旋转的约束较好,与直接求解6自由度位姿不同,本文采用了两步优化求解的策略,先利用地面点估算Z方向、横滚角、俯仰角的变化量,再利用杆状点和面状点估算X方向、Y方向、方位角的变化量,最终联合两步优化获取序列帧的相对位姿[12]。由于单帧点云稀疏且场景多样,无法保证配准的稳健性,且序列帧配准及IMU测量信息存在累积误差,因此本文选取1 s的点云数据建立局部地图,在获取激光序列帧相对位姿的基础上,融合IMU预积分测量信息,完成局部地图的构建,并将其与历史局部地图集合进行闭环检测,实现累积误差的削弱。
3 多因子联合的全局地图构建及优化 3.1 GNSS角点提取全局地图构建及优化是生成高精度的全局一致性地图的关键步骤。GNSS位置因子可有效约束长距离轨迹(无闭环情况下)的漂移误差,但在城市复杂环境中,GNSS存在着位置精度不稳定的现象。此外,由于GNSS位置信息和激光惯导SLAM轨迹间没有初始的转换关系,其仅能约束XYZ位置而不能约束姿态,且在直线分布的轨迹中易存在歧义解。
为了提高GNSS位置因子的稳定性,本文在基于GNSS定位标准差剔除误差较大的GNSS点的基础上,进一步结合相同时间段内SLAM的轨迹距离和GNSS点位移动距离的差值约束剔除了GNSS中的虚假高精度点。此外,针对GNSS位置因子仅能约束XYZ,特别是在直线分布的轨迹中易存在歧义解的问题,本文提出了基于GNSS角点的位置因子约束方法,与直接使用GNSS位置因子不同的是,本文将GNSS位置段方位变化超过30°的GNSS点视为角点,在随后的全局优化中,增量式的加入GNSS角点,构成GNSS位置因子约束。
3.2 全局地图构建及优化全局地图构建以局部地图特征点云为基本单元,本文将局部地图之间的相对位姿关系作为点云配准因子rM,同时引入了IMU预积分因子rimu、闭环检测获得的闭环因子rloop、同步获取的GNSS位置因子rgnss,联合以上约束构建目标函数Eglobal,并基于位姿图优化获取最终的全局地图成果[29],因子图结构如图 2所示。其中T为局部地图之间的位姿关系,F为局部地图特征点云,Fsrc和Ftar分别为闭环检测获得的局部地图特征点云对,Si为局部地图关联的单帧点云,Pgi为点云对应时间的有效的GNSS位置,rimu为IMU预积分残差
(3)
(4)
(5)
(6)
|
| 图 2 全局地图构建及优化 Fig. 2 Global map construction and optimization |
4 试验与分析 4.1 试验设备及数据介绍
为验证本文方法的有效性,采用了集成Velodyne VLP-16 LiDAR、Xsens MTI-100 IMU和Novatel 718D GNSS系统的背包式激光扫描平台对4种典型城市场景(开放园区、地下车库、城市公园、街区道路)进行了数据获取(图 3)。
|
| 图 3 试验区概况 Fig. 3 Overview of the study area |
试验区中,开放公园整体为大型回环,场景中包含大量的建筑立面和少量移动车辆,轨迹总长度约为2.7 km,数据采集过程中存在少量往返采集。地下车库场景面积较小,轨迹总长度约为800 m,数据采集过程中场景内无移动目标干扰,但该场景GNSS信号较弱,存在GNSS信号丢失现象。城市公园场景内地物以树木为主,由于树木枝叶对激光扫描的遮挡,该场景内存在大量往返扫描。街区道路场景为笔直的城市主干道,扫描过程中存在大量移动车辆和行人的干扰,行走轨迹不存在闭环。各场景复杂情况和数据采集信息见表 1。
| 数据集 | 主要地物类型 | 是否存在移动目标 | 轨迹长度/m | 高差/m | 最大旋转速度/(°/s) | 最大位移速度/(m/s) |
| 开放园区 | 室外建筑 | 少量 | 2 730.5 | 4.2 | 110 | 1.4 |
| 地下车库 | 室内建筑 | 无 | 813.2 | 6.3 | 80 | 1.1 |
| 城市公园 | 绿化树木 | 无 | 2 950.3 | 1.9 | 111 | 1.4 |
| 街区道路 | 道路 | 大量 | 3 478.1 | 22.3 | 70 | 3.3 |
在上述4个场景中,研究将本文所提方法与目前主流的LOAM、LeGO-LOAM、LIO-SAM方法进行了对比,通过计算SLAM轨迹的绝对位置误差(absolute position error, APE)评定各方法的定位精度。同时,本文研究还对仅利用激光惯导进行SLAM制图(our-odom)和增加GNSS角点位置约束后的SLAM制图(our-method)结果进行了对比,以表明GNSS位置因子约束的有效性。
除定位精度的评定外,本文还在开放园区场景中,利用RTK(real-time kinematic)采集了20个控制点,用于评定点云制图的绝对坐标精度。
4.2 仅利用激光惯导的本文方法与不同SLAM方法的精度对比不同场景下各SLAM方法的轨迹平面位置对比结果如图 4所示。在开放园区场景中,局部放大图显示LeGO-LOAM方法的轨迹存在明显断裂(图 4(a))。地下车库场景的局部放大图分别展示了车库入口和出口处轨迹结果,同样显示出LeGO-LOAM方法存在明显的轨迹跳变(图 4(b))。城市公园场景中,由于LOAM和LeGO-LOAM方法精度较差,图中仅展示了LIO-SAM和本文方法的对比结果(图 4(c))。街区道路场景中,结合表 2的APE统计结果和图 4(d)所示,可发现LIO-SAM方法APE误差主要出现在了Z方向上。
|
| 图 4 SLAM轨迹平面位置对比 Fig. 4 Comparison between plane positions of SLAM trajectories |
| 数据集 | 方法 | 最小值/m | 平均值/m | 最大值/m | RMSE/m |
| 开放园区 | LOAM | N/A | N/A | N/A | N/A |
| LeGO-LOAM | 0.029 | 7.499 | 102.854 | 23.135 | |
| LIO-SAM | 0.005 | 1.313 | 3.140 | 1.592 | |
| our-odom | 0.09 | 0.715 | 1.869 | 0.820 | |
| 地下车库 | LOAM | N/A | N/A | N/A | N/A |
| LeGO-LOAM | 0.047 | 9.410 | 34.485 | 16.267 | |
| LIO-SAM | 0.005 | 0.441 | 1.036 | 0.505 | |
| our-odom | 0.005 | 0.379 | 1.019 | 0.491 | |
| 城市公园 | LOAM | 0.018 | 19.897 | 86.510 | 32.406 |
| LeGO-LOAM | 0.012 | 13.450 | 32.497 | 15.100 | |
| LIO-SAM | 0.018 | 0.506 | 1.905 | 0.631 | |
| our-odom | 0.006 | 0.385 | 1.311 | 0.505 | |
| 街区道路 | LOAM | N/A | N/A | N/A | N/A |
| LeGO-LOAM | N/A | N/A | N/A | N/A | |
| LIO-SAM | 0.016 | 97.929 | 227.581 | 123.097 | |
| our-odom | 0.033 | 41.577 | 101.387 | 51.980 | |
| 注:“N/A”代表方法运行失败。 | |||||
各场景下4种SLAM方法的轨迹APE随时间的变化情况如图 5所示。在开放园区场景地下车库场景中,LeGO-LOAM方法出现点云配准失败情况后,误差直线上升(图 5(a)和5(b))。城市公园场景中, LeGO-LOAM、LIO-SAM和本文方法的轨迹APE均随时间变化存在起伏(图 5(c)),说明3种方法的闭环约束均削弱了累积误差的影响,且本文方法的累积误差最小。街区道路场景中,LIO-SAM存在较为严重的退化现象,APE随时间的增加显著上升。
|
| 图 5 SLAM轨迹APE对比 Fig. 5 Comparison between APE of SLAM trajectories |
精度评定结果表明(表 2),LOAM方法在唯一成功的城市公园场景中,轨迹APE的RMSE高达32.406 m。LeGO-LOAM方法虽较LOAM方法有所提升,但其RMSE均在数十米量级。LIO-SAM方法在4个场景下均成功实现了制图,但最优精度出现在地下车库场景中,RMSEAPE为0.505 m。在开放园区、地下车库、城市公园、街区道路场景中,本文仅利用激光惯导的方法较LIO-SAM方法分别提升0.772 m、0.014 m、0.126 m和71.117 m。本文仅利用激光惯导的方法与LIO-SAM在街区道路和开放园区场景下的差异较大,其主要原因是两个场景中均存在较多的移动车辆,致使LIO-SAM方法点云配准发生退化现象,结果均表现为Z方向出现大的偏差。而本文方法提取了更趋近于静态目标的杆状和面状特征,并结合两步优化,有效地提高了点云配准的精度,削弱了累积误差。
4.3 GNSS角点位置约束的影响分析如图 5所示,加入GNSS角点位置约束有效降低了本文方法在4个场景下的累积误差。精度评价结果表明,4个场景的平均RMSEAPE由13.449 m提升至0.062 m(表 3),其中在街区道路场景中的提升最为显著,主要原因在于该场景存在大量移动目标且移动轨迹不存在闭环,致使SLAM累积误差较大,此外,近似直线分布的GNSS点无法有效约束相应时刻的姿态,本文方法利用提出的GNSS角点约束有效提高了城市场景制图的稳健性和精度。
| 数据集 | 方法 | 最小值/m | 平均值/m | 最大值/m | RMSE/m |
| 开放园区 | our-odom | 0.09 | 0.715 | 1.869 | 0.820 |
| our-method | 0.002 | 0.044 | 0.272 | 0.050 | |
| 地下车库 | our-odom | 0.005 | 0.379 | 1.019 | 0.491 |
| our-method | 0.002 | 0.042 | 0.441 | 0.054 | |
| 城市公园 | our-odom | 0.006 | 0.385 | 1.311 | 0.505 |
| our-method | 0.002 | 0.055 | 0.647 | 0.063 | |
| 街区道路 | our-odom | 0.033 | 41.577 | 101.387 | 51.980 |
| our-method | 0.004 | 0.069 | 0.238 | 0.079 | |
| 注:our-odom代表本文方法仅使用激光和惯导的结果,our-method代表增加GNSS位置因子后的结果。 | |||||
4.4 本文方法的点云制图精度分析
本文以开放园区为例,进一步展开本文方法点云制图结果的精度验证工作。试验采集了均匀分布于开放园区场景测区的20个有效的检查点(图 6(a)),用于点云制图结果的绝对坐标精度验证。验证结果表明,本文所提方法制图结果的平面中误差为0.041 m,高程中误差为0.024 m,整体中误差为0.047 m(表 4),检查点的平面和高程误差分布均为残留的随机误差(图 6(b)),误差分布相对较大的点基本位于移动轨迹出现急剧方位变化之处,原因在于该处相对于平滑运动的轨迹而言仍有部分姿态误差残留,本文方法可有效提升SLAM制图的绝对坐标精度,满足复杂城市场景下的高精度制图要求。
|
| 图 6 检查点及误差分布 Fig. 6 Distribution of check points in the accuracy analysis |
| 精度 | ΔX/m | ΔY/m | ΔZ/m | ΔXY/m | ΔXYZ/m |
| 最小值 | -0.059 | -0.042 | -0.014 | 0.009 | 0.016 |
| 平均值 | -0.008 | 0.001 | 0.015 | 0.037 | 0.044 |
| 最大值 | 0.040 | 0.050 | 0.070 | 0.071 | 0.090 |
| RMSE | 0.029 | 0.029 | 0.024 | 0.041 | 0.047 |
5 结论
本文面向复杂城市场景的高精度制图要求,提出了一种LiDAR、IMU、GNSS紧耦合SLAM方法,该方法利用杆状和面状特征进行序列帧间、激光扫描帧和局部地图间及局部地图间的点云配准,并采用GNSS角点位置约束SLAM,有效降低了城市环境下SLAM的累积误差,提高了全局地图构建的准确性。试验结果表明,LOAM和LeGO-LOAM方法稳健性及精度均较差,本文方法仅利用激光惯导进行SLAM制图时,在开放园区、地下车库、城市公园和街区道路场景中的精度(RMSEAPE=13.449 m)显著高于目前主流的紧耦合LIO-SAM(RMSEAPE=31.456 m)方法,结合GNSS位置因子约束后,精度提升至厘米级(RMSEAPE=0.062 m),其中开放园区中基于控制点的点云绝对坐标精度评价结果表明,本文方法(RMSE=0.047 m)可有效支持厘米级高精度城市制图。
| [1] |
WANG Y, CHEN Q, ZHU Q, et al. A survey of mobile laser scanning applications and key techniques over urban areas[J]. Remote Sensing, 2019, 11(13): 1540. DOI:10.3390/rs11131540 |
| [2] |
杨必胜, 梁福逊, 黄荣刚. 三维激光扫描点云数据处理研究进展、挑战与趋势[J]. 测绘学报, 2017, 46(10): 1509-1516. YANG Bisheng, LIANG Fuxun, HUANG Ronggang. Progress, challenges and perspectives of 3D LiDAR point cloud processing[J]. Acta Geodaetica et Cartographica Sinica, 2017, 46(10): 1509-1516. DOI:10.11947/j.AGCS.2017.20170351 |
| [3] |
WANG C, WEN C, DAI Y, et al. Urban 3D modeling with mobile laser scanning: a review[J]. Virtual Reality & Intelligent Hardware, 2020, 2(3): 175-212. |
| [4] |
DEBEUNNE C, VIVET D. A review of visual-LiDAR fusion based simultaneous localization and mapping[J]. Sensors, 2020, 20(7): 2068. DOI:10.3390/s20072068 |
| [5] |
LIU R, WANG J, ZHANG B. High definition map for automated driving: overview and analysis[J]. The Journal of Navigation, 2020, 73(2): 324-341. DOI:10.1017/S0373463319000638 |
| [6] |
LLCI V, TOTH C. High definition 3D map creation using GNSS/IMU/LiDAR sensor integration to support autonomous vehicle navigation[J]. Sensors, 2020(3): 899. |
| [7] |
HE G, YUAN X, ZHUANG Y. An integrated GNSS/LiDAR-SLAM pose estimation framework for large-scale map building in partially GNSS-denied environments[J]. IEEE Transactions on Instrumentation and Measurement, 2020, 70: 1-9. |
| [8] |
CHEN C, ZHU H, LI M, et al. A review of visual-inertial simultaneous localization and mapping from filtering-based and optimization-based perspectives[J]. Robotics, 2018, 7(3): 45. DOI:10.3390/robotics7030045 |
| [9] |
邸凯昌, 万文辉, 赵红颖, 等. 视觉SLAM技术的进展与应用[J]. 测绘学报, 2018, 47(6): 770-779. DI Kaichang, WAN Wenhui, ZHAO Hongying, et al. Progress andapplications of visual SLAM[J]. Acta Geodaetica et Cartographica Sinica, 2018, 47(6): 770-779. DOI:10.11947/j.AGCS.2018.20170652 |
| [10] |
ZHANG J, SINGH S. LOAM: LiDAR odometry and mapping in real-time[C]//Proceedings of 2014 Robotics: Science and Systems Conference (RSS). Berkeley, California, USA: [s. n. ], 2014.
|
| [11] |
ZHANG J, SINGH S. Visual-LiDAR odometry and mapping: low-drift, robust, and fast[C]//Proceedings of 2015 IEEE International Conference on Robotics and Automation (ICRA). Seattle, WA, USA: IEEE, 2015: 2174-2181.
|
| [12] |
SHAN T, ENGLOT B. LeGO-LOAM: Lightweight andground-optimized LiDAR odometry and mapping on variable terrain[C]//Proceedings of 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Madrid, Spain: IEEE, 2018: 4758-4765.
|
| [13] |
LE GENTIL C, VIDAL-CALLEJA T, HUANG S. 3D LiDAR-IMU calibration based on upsampled preintegrated measurements for motion distortion correction[C]//Proceedings of 2018 IEEE International Conference on Robotics and Automation (ICRA). Brisbane, Australia: IEEE, 2018: 2149-2155.
|
| [14] |
YE H, CHEN Y, LIU M. Tightly coupled 3D LiDAR inertial odometry and mapping[C]//Proceedings of 2019 International Conference on Robotics and Automation (ICRA). Montreal, Canada: IEEE, 2019: 3144-3150.
|
| [15] |
QIN T, LI P, SHEN S. Vins-mono: a robust and versatile monocular visual-inertial state estimator[J]. IEEE Transactions on Robotics, 2018, 34(4): 1004-1020. DOI:10.1109/TRO.2018.2853729 |
| [16] |
李帅鑫, 李广云, 王力, 等. LiDAR/IMU紧耦合的实时定位方法[J]. 自动化学报, 2020, 46(6): 1-13. LI Shuaixin, LI Guangyun, WANG Li, et al. LiDAR/IMU tightly coupled real-time localization method[J]. Acta Automatica Sinica, 2020, 46(6): 1-13. DOI:10.16383/j.aas.c190424 |
| [17] |
SHAN T, ENGLOT B, MEYERS D, et al. LIO-SAM: tightly-coupled LiDAR inertial odometry via smoothing and mapping[C]//Proceedings of 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Las Vegas, NV, USA: IEEE, 2020: 5135-5142.
|
| [18] |
闫利, 戴集成, 谭骏祥, 等. SLAM激光点云整体精配准位姿图技术[J]. 测绘学报, 2019, 48(3): 313-321. YAN Li, DAI Jicheng, TAN Junxiang, et al. Global fine registration of point cloud in LiDAR SLAM based on pose graph[J]. Acta Geodaetica et Cartographica Sinica, 2019, 48(3): 313-321. DOI:10.11947/j.AGCS.2019.20170716 |
| [19] |
DU S, LI Y, LI X, et al. LiDAR odometry and mapping based on semantic information for outdoor environment[J]. Remote Sensing, 2021, 13(15): 2864. DOI:10.3390/rs13152864 |
| [20] |
BOGOSLAVSKYI I, STACHNISS C. Fast range image-based segmentation of sparse 3D laser scans for online operation[C]//Proceedings of 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Daejeon, Korea (South): IEEE, 2016: 163-169.
|
| [21] |
HIMMELSBACH M, HUNDELSHAUSEN F V, WUENSCHE H-J. Fast segmentation of 3D point clouds for ground vehicles[C]//Proceedings of 2010 IEEE Intelligent Vehicles Symposium. La Jolla, California, USA: IEEE, 2010: 560-565.
|
| [22] |
BOGOSLAVSKYI I, STACHNISS C. Efficient online segmentation for sparse 3D laser scans[J]. PFG-Journal of Photogrammetry, Remote Sensing and Geoinformation Science, 2017, 85(1): 41-52. DOI:10.1007/s41064-016-0003-y |
| [23] |
WEINMANN M, URBAN S, HINZ S, et al. Distinctive 2D and 3D features for automated large-scale scene analysis in urban areas[J]. Computers and Graphics, 2015, 49: 47-57. DOI:10.1016/j.cag.2015.01.006 |
| [24] |
GUINARD S, LANDRIEU L. Weakly supervised segmentation-aided classification of urban scenes from 3D LiDAR point clouds[C]//Proceedings of ISPRS Workshop 2017. Hannover, Germany: ISPRS, 2017.
|
| [25] |
BESL P, MCKAY N D. Amethod for registration of 3D shapes[J]. IEEE Transaction on Pattern Analysis and Machine Intelligence, 1992, 14: 239-256. DOI:10.1109/34.121791 |
| [26] |
GRESSIN A, MALLET C, DEMANTKE J, et al. Towards 3D LiDAR point cloud registration improvement using optimal neighborhood knowledge[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2013, 79: 240-251. DOI:10.1016/j.isprsjprs.2013.02.019 |
| [27] |
GLIRA P, PFEIFER N, BRIESE C, et al. A correspondence framework for ALS strip adjustments based on variants of the ICP algorithm[J]. PFG-Journal of Photogrammetry, Remote Sensing and Geoinformation Science, 2015, 2015(4): 275-289. |
| [28] |
MORE J J. The Levenberg-Marquardt algorithm: implementation and theory[M]. Berlin: Numerical analysis. Springer, 1978: 105-116.
|
| [29] |
QIN T, LI P, SHEN S. Vins-mono: a robust and versatile monocular visual-inertial state estimator[J]. IEEE Transactions on Robotics, 2018, 34(4): 1004-1020. DOI:10.1109/TRO.2018.2853729 |



