针对移动测量系统异构数据(3D激光点云、2D影像)高精度融合,以移动测量系统原理为基础、系统传感器高精度检校算法为核心,通过异构数据的高精度融合建立移动测量一体化数据模式,实现系统中不同传感器获取的异构数据信息有效整合。论文主要研究内容如下。
(1) 构建了一种基于多特征约束的移动测量系统视准轴误差自检校模型,解决单一特征约束模型适应性差以及检校过程自动化程度低等问题,增强了检校模型的稳健性。根据视准轴误差影响规律,从单一特征约束的检校模型入手,提出了基于参考面约束的视准轴误差检校模型以及基于球特征的视准轴误差检校模型。试验结果表明,单一特征约束检校模型虽然能有效求解出视准轴误差并获得较高的检校精度,但存在对集成不同类型激光雷达传感器的移动测量视准轴误差检校的普适性较差的问题。为提高检校模型的普适性、稳定性,同时结合特征自动化提取算法,构建了一种基于多特征约束的视准轴误差自检校模型,在构建检校模型时采用多种特征作为约束,同时引入排列方法进行约束方程匹配用于确保观测量对检校结果影响的等效性。根据协方差传播定律,从理论层面验证了多特征约束模型的可靠性要优于单一特征约束的检校模型,精度更高、适用性更强。
(2) 针对相机内参数检校方法中因参数过多易陷入局部最优解、观测值和系数阵中存在误差的情况,将直接线性变换法与空间后方交会法相结合,用于解决相机内参数线性化解算过程中容易陷入局部最优解的问题;通过构建整体最小二乘并在解算过程中利用像点位移残差标准差为阈值进行粗差剔除从而获得相机内参数的可靠估值。在相机内参数精检校的基础上,为实现移动测量一体化数据模式,以3D点云数据为基准,棱台装置为桥梁,将点云自动化以及图像识别算法相结合,实现图像(2D)、激光点云(3D)两种异构数据同名特征精提取,有效提高了相机外参数高精度检校。以面阵相机与全景相机为对象进行外参数检校试验验证,结果表明相机外参数检校中误差优于1个像素。
(3) 根据移动测量系统时间同步机制,以影像触发的GNSS时间为基准,结合激光点云采集连续性以及影像采集间隔性的特点,通过时域分割方法实现激光点云与序列化影像快速高精度融合。以搭载面阵相机的无人机移动测量系统和搭载全景相机的车载移动测量系统为对象进行试验分析,结果表明提出的融合方法可行、精度可靠。在此基础上,针对相机传感器与激光雷达视场角不匹配问题,依托高精度相机外参数检校技术,设计了邻域影像修补方法,有效解决因传感器视场角不匹配而造成的真彩点云信息缺失问题,提升了真彩点云信息的完备性。
(4) 在移动测量系统检校、高精度融合的基础上,针对全景影像量测问题,结合传统摄影测量立体量测理论,构建出基于球坐标系下共线关系的全景立体量测模型。通过试验分析,全景立体量测模型在15 m范围内量测中误差为2.3 cm。在此基础上,考虑到全景立体量测交互复杂性以及交会角对量测精度影响问题,结合深度相机原理,以点云反向融合为支撑,提出了一种基于距离影像的单全景量测模型。该方法利用三维激光点云反向融合为影像数据提供距离信息,实现全景影像数据由2D向3D维度的升华。通过试验评估,单全景量测模型理论可行、方法可靠,量测中误差为3.8 cm,完全能够满足测绘中全景量测需求,有效实现移动测量系统异构数据高精度双向融合与应用。


