摘要
在无人机视觉辅助惯性导航系统中,不确定延时的图像数据在无人机室内导航中是无法满足与其他传感器同步要求的,因此准确估计视觉传感器与惯性测量单元(IMU)之间的相对延时是非常重要的.本文提出了一种可以有效估计图像延时的方法,并根据延时进行视觉数据的延时补偿,最后利用扩展卡尔曼滤波(EKF)实现IMU数据与视觉数据的融合,从而估计出无人机的实时位姿和速度.通过软件仿真和在无人机平台上的实验验证结果表明,该方法能准确地估计延时,使室内实时导航的定位性能得到明显改善.
近几十年来,随着传感器技术的发展和控制理论的完善,无人机的应用越来越广泛.导航定位的高精度和高性能是实现无人机(Unmanned Aerial Vehicle, UAV)广泛应用的重要前提,在导航系统中,通常需要使用多种类型的传感器来实现不同的运动感知目的.因此,传感器数据融合是必不可少的,但同时在融合的过程中也存在传感器输出数据延时的问题.
对于无人机的室内导航系统而言,惯性测量单元(Inertial measurement unit, IMU)能够提供惯性信
传感器延时主要是指视觉传感器的输出延时.一方面,因为视觉信息通常需要经过复杂的操作处理,比如在用到实时定位和地图重建(Simultaneous localization and mapping,SLAM
为了实现合理的传感器数据融合,必须准确估计这几个传感器之间的输出延时差.对于视觉与IMU相结合的传感器系统而言,视觉数据延时通常难以准确估
本文提出了迭代最邻近点(Tterative Closest Point, ICP)的一种变体算法来估计延时,可以简化传统算法并大大减少计算时间.在此估计的时间延时内,根据加速度计的测量结果,预测出延时补偿后无人机的速度,并进一步估计出运动的位移.在统一好各传感器的坐标系方向后,使用EKF将IMU测量值和补偿后的视觉数据融合在一起,用于无人机的定位和导航.
本文在第1部分中,提供了IMU的数据模型;在第2部分中给出了ICP方法的简化变体,运用迭代求解的方法估算出视觉数据的延时;在第3部分中,本文使用EKF融合了IMU数据和补偿后的视觉数据;第4部分是实验和分析,在这部分中使用了不同数据源的输入进行对比,给出了几组对照实验的结果;第5部分总结了本文.
IMU包含加速度计和陀螺仪,分别提供加速度和角速度.在无人机航姿参考系统(Attitude and Heading Reference System, AHRS
加速度计可以测量物体的线性加速度.加速度计的输出通常包括瞬时加速度以及无法避免的偏差和噪声,可表示为
(1) |
其中是实际的加速度,而是传感器测量出的加速度;是一个比例参数,为常数,由传感器自身特性决定;是偏差项,包含零偏和由温度变化引起的偏差;是高斯白噪声.通常可假定中的零偏为常数,因此可以在初始化期间对其进行补偿.温度变化引起的偏差会随环境温度而变化,因此该偏差可以通过测温模块进行校准;是重力加速度,在计算运动加速度时,首先应消除重力影响;是一个旋转矩阵,用于对齐加速度计和无人机机体的正方向.
陀螺仪可测量绕三个正交轴上的角速度.与加速度计类似,陀螺仪的数据模型可表示为
(2) |
这里是实际角速度,而是测量出的结果;是偏差是高斯白噪声;同样地,和表示比例参数和相应的旋转矩阵.
通过使用恰当的视觉里程计或SLAM算
其中,是旋转矩阵,用于统一相机坐标系和无人机机体坐标系,可表示为:
在上式中,表示两坐标轴间的旋转,表示两个姿态轴之间的旋转.
本文使用的延时估计算法是基于ICP的一种简化变体.我们将所有由视觉数据计算出的姿态角信息保存为数据集,将所有由AHRS估计出的无人机姿态角数据保存为数据集,使用迭代的方法求解数据集与数据集之间对应的最邻近点.需要注意的是数据集中每项数据都包含时间信息,也就是数据集和之间的延时差可以视为时间轴上的平移运动,如果不考虑两个数据集间存在旋转关系,就可以将延时初步表示为:
(3) |
上式中,代表中有效数据的个数,下标和表示数据采集的时刻.求解上式需要运用ICP的思路,首先分别计算两个数据集的去质心点集,数据集和中的姿态角用欧拉角的形式表示为如下的3×3矩阵:
(4) |
分别计算出两个数据集的质心,用和表示
(5) |
则数据集的去质心点集为
(6) |
接下来将去质心点集代入中,就可以使用奇异值分解的方法搜索最优解:
(7) |
在这里即为奇异值,通常取奇异值为矩阵特征值的平方根.如果计算得到的秩为3,则和是的一对最优解,此时利用最优解计算的就是和之间的平移,在时域上可以将视为视觉数据相对于AHRS输出的延时.
至此一次估计过程结束,如果和之间的差大于阈值(Threshold,TH),所有点将根据进行更新,算法将再次搜索对应的点,直到,其详细算法过程和逻辑如

图1 延时标定算法逻辑图
Fig.1 Logic diagram of delay calibration algorithm
AHRS的姿态角输出本身就具有内部延时,但是由于比和都要大得多,并且EKF的方法可认为是实时更新了来自AHRS的数据,因此AHRS的输出可以被大致认为是IMU数据的无延时估计,也就是,各传感器数据在时间轴上的关系如
(8) |
其中,表示视觉数据滞后于惯性传感器数据输出的延时,而是视觉数据滞后于实际运动发生时刻的实际延时,通过减去加速度计的输出延时,求得的在涉及加速度的控制闭环中基本满足准确度要求.使用进行延时补偿,可以将视觉数据补偿到与IMU数据基本相同的时间点.

图2 延时示意图
Fig.2 Time delay diagram
在这段时间内,无人机的实际运动由加速度计实时获取,但由于视觉数据的延时,此时并未获取到由视觉传感器计算得到的运动数据.根据运动定理,可以将线性加速度的积分视为无人机的速度,视觉数据的位置微分也可被视为速度.相对而言,具有良好的实时响应,但由于误差在积分过程中会产生漂移,尤其是对于长时间操作漂移会更加明显.而在整个飞行过程中相对准确,但其实时性能却很差.
因此,融合和以获得更为准确的速度数据是非常有必要的.将作为时间内的有效实时速度,并利用在时刻之后的高可靠性,可以得到的补偿后速度为:
(9) |
其中,是传感器的采样周期,而是来自中的位置坐标.假设在飞行过程中环境温度没有变化,在初始化过程中无人机处于静止状态,则取前200次加速度数据的平均值来作为加速度计的零偏:
(10) |
同样的,位移的实际延时,由速度积分得到的位移数据在这段时间内具有更好的动态性能,而在时刻之后,视觉数据可以给出更准确的位移信息.因此,可以通过融合来自这两个数据源的位移数据来计算延时补偿后的位置:
(11) |
其中和分别是补偿后的速度和位移,经过补偿的速度和位移用于后续数据融合滤波和导航,可以明显提高状态估计器的准确性.
经过延时补偿后,无人机视觉辅助惯性导航系统中视觉数据和惯性数据可以保持时间上的同步,此时可以运用EKF的方法对视觉数据和惯性数据进行融合,用于得到更准确的位姿信息.无人机的速度和位置的更新关系可以表示为:
(12) |
通过参考文献[
(13) |
上式中是高斯白噪声,均值为零,其服从以下分布:
(14) |
这里表示过程噪声协方差矩阵.对系统的误差协方差矩阵进行更新:
(15) |
在更新阶段,确定系统的观测向量为,计算系统的残差,其中为观测矩阵,可以简化为单位阵.因此EKF的状态更新过程可以表示为:
(16) |
上式中,其中是观测噪声,服从高斯白噪声的性质.
本文的无人机实验平台如

图3 无人机实验平台
Fig.3 UAV experimental platform
首先,运用本文的延时标定和补偿方法对视觉数据进行补偿.通过融合在延时时间内的加速度,可以大大提高补偿后速度的估计精度.在

图4 速度的延时补偿
Fig.4 Delay compensation of speed

图5 位移的延时补偿
Fig.5 Delay compensation of displacement
延时补偿还有助于提高无人机的定位精度.无人飞行器沿着同一个预设矩形的边缘飞行,实际飞行位置如

图6 无人机的实际飞行位置
Fig.6 Actual flight position of UAV
运用软件对三种数据源得到的飞行结果进行APE误差分析,相对误差表现如

(a) 原始视觉数据定位误差
(a) Positioning error of original visual data

(b) 未经延时补偿的融合数据定位误差
(b) Location error of fusion data without delay compensation

(c) 延时补偿后的融合数据定位误差
(c) Location error of fusion data with delay compensation
图7 三种数据源输入的定位误差对比
Fig.7 Comparison of positioning errors of three data sources input
本文提出了一种基于视觉系统延时补偿的无人机实时室内导航方法.首先,通过ICP的简化变体估算出IMU数据和视觉数据之间的延时.基于该估计的延时,使用加速度信息来补偿视觉估计的速度.然后,对补偿后的速度求积分,进一步融合积分结果和视觉估计的位置,得到补偿后的位置信息.补偿后的速度和位置在精度上有了很大的提高,并且使其与实际的速度和位移保持同步.最后,利用EKF将补偿后的视觉数据与IMU数据融合,从而使定位性能显著优于原始视觉数据.更重要的是,该方法不仅提高了定位精度,还满足了室内无人机控制的实时性要求.
参 考 文 献
Sanz R,Garcia P,Pedro C G,et al. Time-delay compensation using inertial measurement sensors for quadrotor control systems. In: Proceedings of International Conference on Information Fusion,2014
Paz L M,Tardos J D, Neira J. Divide and conquer:EKF SLAM in O(n).IEEE Transactions on Robotics,2008,24(5):1107~1120
Mirzaei F M. Roumeliotis S I. A Kalman filter-based algorithm for IMU⁃camera calibration. IEEE Transactions on Robotics,2008,24(5):1143~1156
Ghanbari M,Yazdanpanah M J. Delay compensation of tilt sensors based on MEMS accelerometer using data fusion technique. IEEE Sensors Journal, 2015,15(3):1959~1966
Kelly J, Roy N, Sukhatme G S. Determining the time delay between inertial and visual sensor measurements.IEEE Transactions on Robotics,2017,30(6):1514~1523
Chaillet A,Bicchi A. Delay compensation in packet⁃switching networked controlled systems. In: Proceedings of IEEE Conference on Decision and Control,2008
Yang Z F, Shen S J. Monocular visual⁃inertial state estimation with online initialization and camera⁃IMU extrinsic calibration. IEEE Transactions on Automation Science and Engineering, 2017,14(1):39~51
Zheng Y J,Dong L, Wang Q L. Multi⁃rotor UAV attitude calculation based on extended Kalman filter. In: Proceedings of 30th Chinese Control and Decision Conference (CCDC),2018
Gui P F, Tang L Q, Mukhopadhyay S. MEMS based IMU for tilting measurement:Comparison of complementary and kalman filter based data fusion. IEEE 10th Conference on Industrial Electronics and Applications, 2015
Li Y J,Quan P,Zhao C H,et al. Scene matching based EKF⁃SLAM visual navigation. In: Proceedings of China Control Conference,2012
Zeng F Y,Zeng W C,Gan Y.ORB⁃SLAM2 with 6⁃DOF motion. In: Proceedings of 3rd International Conference on Image,Vision and Computing (ICIVC),2018
Gadamsetty B,Bogosyan S,Gokasan M, et al.Sliding mode and EKF observers for communication delay compensation in bilateral control systems. In IEEE International Symposium on Industrial Electronics,2010
Sejong H, Jaehyuck C, Park C G. EKF-based visual inertial navigation using sliding window nonlinear optimization. IEEE Transactions on Intelligent Transportation Systems,20(7):2470~2479,2019