一种基于视觉及超宽带的无人机协同定位方法

    技术2025-01-09  48


    本申请属于无人机定位,尤其涉及一种基于视觉及超宽带的无人机协同定位方法。


    背景技术:

    1、随着近年来无人机的广泛应用,无人机的自主性,续航能力,抗干扰能力等都逐渐被重视起来,而多无人机的自主协同工作则更是被研究人员所关注。现阶段,由于多无人机的协同需要的技术较为复杂,无人机之间的相对定位的准确性则是一个极为重要的点,其直接影响着无人机的整个飞行线路。

    2、目前无人机的协同定位方案主要分为5大类:

    3、1、视觉导航定位,依靠视觉信息和惯性测量单元imu的融合,主要表述为将视觉信息和imu信息进行融合优化,目前主要的方案有非线性优化法和滤波器方法,虽然能获取到无人机的位置信息,但是随着时间的增加或者随着环境的复杂,该方法不能表现出很好的鲁棒性,使得处理完得到的结果偏离真实值。

    4、2、gps全球定位系统,采用全球定位技术得到的机器人的位置虽然不会完全的偏离真实值,但是其精准度和抗干扰能力较差,无法在隧道,涵洞等无信号区域实现无人机的定位和自主飞行。

    5、3、室内uwb基站技术,采用uwb基站的方法实现无人机的定位,能够得到一个相对精准的位置信息,并且在长时间内不会偏离真实值,但是由于需要布置基站,而且需要初始化校准,因此在室外的复杂环境中仍然是不允许的,这也限制了单纯用uwb基站进行定位方法的使用范围。

    6、4、超声波导航定位技术,其原理是采用能够发射的激光或者红外等装置进行相对定位,但是由于其不带有方向性,并且在遇到镜子等过于光滑的环境时会造成定位误差的产生,并且这种误差一般都是致命性的,因此该方案目前只有少数研究在使用。

    7、5、slam技术,该方案可以达到同时定位与地图构建,一般都搭载在中大型飞机上或移动机器人上,可以实现无人机或者机器人的完全自主导航和规划等功能,但是由于其对无人机的硬件需求较高,且一般都采用雷达建图的方案,因此该方案不太适用于小型无人机的协同定位。


    技术实现思路

    1、本申请的目的是提供一种基于视觉及超宽带的无人机协同定位方法,针对目前在微小型多无人机上协同定位技术的不足,通过松耦合方式融合视觉和uwb的信息,采用非线性优化的方法,提高无人机定位的准确性,实现多无人机协同定位的功能,解决了多无人机在复杂环境下完成精准的定位问题。

    2、为了实现上述目的,本申请技术方案如下:

    3、一种基于视觉及超宽带的无人机协同定位方法,包括:

    4、根据本机采集的惯性导航信息和视觉信息,获得本机在世界坐标系下的视觉位置信息;

    5、将本机超宽带测距信息、光流信息和视觉位置信息,以及获取到的其他无人机的宽带测距信息、光流信息和视觉位置信息,通过本机时间戳进行时间同步,对时间同步以后的数据进行时间滑动窗口处理;

    6、在时间滑动窗口内通过小时间段线性拟合得到视觉位置对应的斜率参数;

    7、构建漂移误差模型以及对应的非线性优化模型,根据本机超宽带测距信息、光流信息和视觉位置信息,以及获取到的其他无人机的宽带测距信息、光流信息和视觉位置信息,以及视觉位置对应的斜率参数,对非线性优化模型进行求解,得到漂移误差模型的参数;

    8、将本机视觉位置信息带入漂移误差模型,计算得到无人机的真实位置。

    9、进一步地,所述基于视觉及超宽带的无人机协同定位方法,还包括:

    10、对采集的超宽带测距信息、光流信息进行数据滤波预处理。

    11、进一步地,所述在时间滑动窗口内通过小时间段线性拟合得到视觉位置对应的斜率参数中,小时间段线性拟合采用一元线性回归模型进行拟合。

    12、进一步地,所述漂移误差模型公式表示如下:

    13、

    14、其中,i表示第i架无人机,ki和bi表示漂移误差模型的斜率和偏置,δpi为在同一时刻视觉位置信息与真实位置之间的误差,t表示时间戳;表示真实位置,表示视觉位置;

    15、所述非线性优化模型公式表示如下:

    16、

    17、其中,i+1表示第i+1架无人机,r等于0、1和2,分别对应x、y和z轴,duwb表示为超宽带测距信息,表示第i架、第i+1架无人机视觉位置对应的斜率参数,a表示在一个时间滑动窗口内数据帧数量的大小,表示第i架、第i+1架无人机光流信息,表示第i架、第i+1架无人机对应的偏置估计值,表示第i架、第i+1架无人机视觉位置,δpi、δpi+1分别表示第i架、第i+1架无人机视觉位置信息与真实位置之间的误差。

    18、进一步地,所述偏置估计值,通过如下公式计算得到:

    19、

    20、其中,ki(t-1),bi(t-1)为上一次时间滑动窗口内优化的结果,δt为两次优化时间滑动窗口的间隔时间。

    21、进一步地,所述基于视觉及超宽带的无人机协同定位方法,还包括:

    22、将计算得到的真实位置与视觉位置进行比较,如果位置差值小于第一阈值,则将真实位置作为无人机最终位置,否则以真实位置替代视觉位置,再次对非线性优化模型进行求解,得到漂移误差模型的参数,并根据漂移误差模型,计算得到无人机的真实位置。

    23、进一步地,所述基于视觉及超宽带的无人机协同定位方法,还包括:

    24、根据无人机视觉位置计算无人机之间的距离,判断超宽带测距信息与所计算出的距离之差是否小于第二阈值,如果小于则进行时间同步,否则将超宽带测距信息视为异常数据丢弃。

    25、本申请提出的一种基于视觉及超宽带的无人机协同定位方法,具有如下有益效果:

    26、1、传统的无人机视觉里程计定位容易受imu的精度以及振荡影响,和环境光照度的影响导致定位随着时间漂移掉,无法实现复杂环境下的精准定位,而本申请基于uwb和视觉的融合方案,很好的解决传统视觉里程计定位漂移的问题。

    27、2、传统的无人机协同定位采用的技术比较单一,采用的方案不能适应多变和复杂的场景,而本申请则是对多传感器融合技术的扩展,并采用松耦合的方式进行融合,减少了因传感器噪声大而对系统造成的影响过大问题,并且提高了系统的可移植性,可以很好的扩展到无人车等场景下。

    28、3、传统的无人机定位技术基本都是处在单个无人机的定位,而多无人机系统的自主定位技术相对匮乏,本申请提供了一套可以实现多无人机协同定位的方法,通过融合自身位置信息和其余无人机的位置信息,通过非线性优化的方式获得位置最优结果,可以为无人机在野外或者未知环境下的协同探索提供了可能性。



    技术特征:

    1.一种基于视觉及超宽带的无人机协同定位方法,其特征在于,所述基于视觉及超宽带的无人机协同定位方法,包括:

    2.根据权利要求1所述的基于视觉及超宽带的无人机协同定位方法,其特征在于,所述基于视觉及超宽带的无人机协同定位方法,还包括:

    3.根据权利要求1所述的基于视觉及超宽带的无人机协同定位方法,其特征在于,所述在时间滑动窗口内通过小时间段线性拟合得到视觉位置对应的斜率参数中,小时间段线性拟合采用一元线性回归模型进行拟合。

    4.根据权利要求1所述的基于视觉及超宽带的无人机协同定位方法,其特征在于,所述漂移误差模型公式表示如下:

    5.根据权利要求4所述的基于视觉及超宽带的无人机协同定位方法,其特征在于,所述偏置估计值,通过如下公式计算得到:

    6.根据权利要求1所述的基于视觉及超宽带的无人机协同定位方法,其特征在于,所述基于视觉及超宽带的无人机协同定位方法,还包括:

    7.根据权利要求1所述的基于视觉及超宽带的无人机协同定位方法,其特征在于,所述基于视觉及超宽带的无人机协同定位方法,还包括:


    技术总结
    本发明公开了一种基于视觉及超宽带的无人机协同定位方法,首先采集惯性导航信息和视觉信息,获得本机在世界坐标系下的视觉位置信息,然后在时间滑动窗口内通过小时间段线性拟合得到视觉位置对应的斜率参数;再构建漂移误差模型以及对应的非线性优化模型,根据本机超宽带测距信息、光流信息和视觉位置信息,以及获取到的其他无人机的宽带测距信息、光流信息和视觉位置信息,以及视觉位置对应的斜率参数,对非线性优化模型进行求解,得到漂移误差模型的参数;最后将本机视觉位置信息带入漂移误差模型,计算得到无人机的真实位置。本发明基于UWB和视觉的融合方案,实现了多无人机协同的精准定位。

    技术研发人员:董辉,梅家豪,吴祥,郭方洪,吴旻诚,温震宇,林文杰,黄光普
    受保护的技术使用者:浙江工业大学
    技术研发日:
    技术公布日:2024/10/24
    转载请注明原文地址:https://symbian.8miu.com/read-24847.html

    最新回复(0)