应用于反低慢小目标的基于机器视觉的云台控制方法

文档序号:1903958 发布日期:2021-11-30 浏览:8次 >En<

阅读说明:本技术 应用于反低慢小目标的基于机器视觉的云台控制方法 (Pan-tilt control method based on machine vision and applied to anti-low-slow small target ) 是由 林德福 李帆 王辉 宋韬 吴则良 于 2020-11-16 设计创作,主要内容包括:本发明公开了一种应用于反低慢小目标的基于机器视觉的云台控制方法,该方法中通过设置无人机及云台的自动控制过程,使得无人机能够携带云台在预定范围内巡航,从而及时发现入侵的低慢小目标,且所述云台在发现目标后按照设定的特殊角速度旋转,降低目标脱离视场域的可能性,尽量让目标处于视场域的中心位置,从而增强对目标的跟踪效果。(The invention discloses a cloud deck control method based on machine vision and applied to anti-low-slow small targets.)

应用于反低慢小目标的基于机器视觉的云台控制方法

技术领域

本发明涉及无人机上云台的控制方法,具体涉及一种应用 于反低慢小目标的基于机器视觉的云台控制方法。

背景技术

“低慢小”目标(LSST),是指具有低空、超低空飞行(飞 行高度在1000m以下),飞行速度小于200km/h,不易被雷达 发现等全部或部分特征的小型航空器和空飘物。低慢小航空器 飞行高度在1000米以下、飞行时速小于200公里、雷达反射面 积小于2平方米的航空器具,由于“低慢小”目标涉及的范围 比较广(包括中小型飞机、直升机、滑翔机、热气球、无人机 等通用航空器材及航空运动器材等),加上科技的发展,使得“低 慢小”目标得到广泛使用和迅速发展。

“低慢小”目标的发展提高了国民经济发展水平,但它试 一把双刃剑,近几年“低慢小”事件明显上升,“低慢小”目标 的发展对重点目标、重点区域和重大活动产生的重大威胁也日 益突出,一旦被某些不良用心的人利用,将产生不可想象的后 果。随着我国低空空域的开放,对“低慢小”目标的监管与防 范成为亟待解决的问题,准确探测、拦截、追踪和打击“低慢 小”目标十分重要和紧迫。

“低慢小”目标具有难探测、难防御的特点,目前对“低 慢小”目标的拦截方式主要分软杀伤和硬杀伤两种。软击杀通 过干扰通信链路、干扰导航定位系统和干扰侦查设备来实现削 弱“低慢小”目标的作战能力。硬杀伤通过派遣直升机打击、 无人机打击和摧毁地面站的形式的干预手段。其中因为无人机 的战场感知能力强、灵活度高、成本低等一系列优势,利用无 人机打击“低慢小”目标成为一种费效比非常可观的手段。

对低慢小目标所做的所有处理的前提条件是实时识别并追 踪该目标,现有的方案中也都是通过云台搭载摄像机来识别追 踪目标,然而在实际工作过程中,由于云台转速控制不当,目 标经常从摄像机视场域中脱离,导致追踪效果不够理想。

由于上述原因,本发明人对现有的云台控制方法做了深入 研究,以期待设计出一种能够解决上述问题的应用于反低慢小 目标的基于机器视觉的云台控制方法。

发明内容

为了克服上述问题,本发明人进行了锐意研究,设计出一 种应用于反低慢小目标的基于机器视觉的云台控制方法,该方 法中通过设置无人机及云台的自动控制过程,使得无人机能够 携带云台在预定范围内巡航,从而及时发现入侵的低慢小目标, 且所述云台在发现目标后按照设定的特殊角速度旋转,降低目 标脱离视场域的可能性,尽量让目标处于视场域的中心位置, 从而增强对目标的跟踪效果,从而完成本发明。

具体来说,本发明的目的在于提供一种应用于反低慢小目 标的基于机器视觉的云台控制方法,该方法包括如下步骤:

步骤1,搭载有云台的无人机到达预定位置悬停,控制云 台及云台上的相机搜索目标,进入搜索模式;

步骤2,在搜索模式中,相机实时读取拍摄获得的图像, 判断图像中是否包含目标,当所述图像中包含目标时,判断是 否进入到跟踪模式;

步骤3,在进入到跟踪模式后,实时根据目标在图像中的 像素偏差生成控制指令来调整云台的旋转角速度,

在跟踪模式中,若短时间内丢失目标,则继续保持跟踪模 式,若长时间丢失目标,则终止跟踪模式,控制云台恢复到初 始角度状态,控制无人机回复到预定位置。

其中,在步骤2中,当图像中的目标深度小于设定值,且 连续多帧图像中都包含目标时进入到跟踪模式。

其中,所述设定值为30米,所述多帧图像为5帧或5帧以上 图像。

其中,在步骤3中,在进入到跟踪模式后,首先以较小的 速度调整云台的旋转角速度,一定时间后再以较大的速度调整 云台的旋转角速度。

其中,在步骤3中,在进入到跟踪模式后通过下式(一) 解算期望的云台旋转角速度,并据此控制云台转动;

其中,表示期望的云台旋转角速度,kpmax表示像素偏差 项权重最大值,kpmin表示像素偏差项权重最小值,t表示时间, err表示像素偏差,kdmax表示像素偏差变化率权重最大值, kdmin表示像素偏差变化率权重最小值,表示素偏差变化率。

其中,在步骤3中,在跟踪模式中,丢失目标后,继续通 过目标丢失前一帧图像对应的控制指令控制云台,

在丢失目标200ms后未能捕捉到目标,则终止跟踪模式, 控制云台恢复到初始角度状态。

其中,在丢失目标1s后,控制无人机回复到预定位置。

其中,在进入到跟踪模式时,实时解算获得目标的状态估 计,并据此控制无人机跟踪或者追逐目标。

本发明所具有的有益效果包括:

(1)根据本发明提供的应用于反低慢小目标的基于机器 视觉的云台控制方法,使得云台能够平稳的从静止状态转换为 快速跟踪状态,使得云台不会由于运动模糊丢失目标;

(2)根据本发明提供的应用于反低慢小目标的基于机器 视觉的云台控制方法,保证了在执行任务时可以较为方便的获 得所需的导航信息;

(3)根据本发明提供的应用于反低慢小目标的基于机器 视觉的云台控制方法,高鲁棒性的控制方法使得云台在出现某 些意外情况时能够始终在可控状态。

附图说明

图1示出根据本发明一种优选实施方式的应用于反低慢小 目标的基于机器视觉的云台控制方法整体逻辑图;

图2示出实施例中得到的像素归一化的像素偏差;

图3示出图2的局部放大图;

图4示出实际轨迹与观测轨迹的对比图。

具体实施方式

下面通过附图和实施例对本发明进一步详细说明。通过这 些说明,本发明的特点和优点将变得更为清楚明确。

在这里专用的词“示例性”意为“用作例子、实施例或说 明性”。这里作为“示例性”所说明的任何实施例不必解释为优 于或好于其它实施例。尽管在附图中示出了实施例的各种方面, 但是除非特别指出,不必按比例绘制附图。

根据本发明提供的应用于反低慢小目标的基于机器视觉的 云台控制方法,如图1中所示,该方法包括如下步骤:

步骤1,搭载有云台的无人机到达预定位置悬停,控制云台 及云台上的相机搜索目标,进入搜索模式;所述预定位置可以 是无人机起飞前灌装到无人机中的坐标点,也可以是地面控制 站实时传输给无人机的坐标点,通过设置该预定位置即可划定 无人机的巡视区域,确保巡视检测该区域中的低慢小目标。

步骤2,在搜索模式中,相机实时读取拍摄获得的图像,判 断图像中是否包含目标,当所述图像中包含目标时,判断是否 进入到跟踪模式;在搜索模式中,相机按照预设频率实时拍摄 照片,如25Hz,通过图像识别的方式在每帧图像中寻找目标, 所述目标可能的外形通过机器学习的方式灌装到图像识别系统 中。

步骤3,在进入到跟踪模式后,实时根据目标在图像中的像 素偏差生成控制指令来调整云台的旋转角速度,

在跟踪模式中,若短时间内丢失目标,则继续保持跟踪模 式,若长时间丢失目标,则终止跟踪模式,控制云台恢复到初 始角度状态,控制无人机回复到预定位置。刚刚丢失目标的时 候,认为目标在短时间内有一定可能被重新识别,因此对于云 台来说,此刻保持目标丢失前一刻的控制指令才能最大程度的 保证云台的运动方向与目标的运动方向保持一致,也为能够重 新识别到目标提供条件;当目标丢失时间较长还未能被重新识 别,那么以防无人机发生未知的危险,以及为重新进行任务做 好准备,就将目标当作完全丢失处理。

在一个优选的实施方式中,在步骤2中,当图像中的目标深 度小于设定值,且连续多帧图像中都包含目标时进入到跟踪模 式。

优选地,所述设定值为30米,所述多帧图像为5帧或5帧以 上图像。设置上述进入跟踪模式的条件,能够确保进入到跟踪 模式后目标不会因为距离过远而导致图像模糊,也不会因为目 标偏离视场中心而频繁丢失。

在一个优选的实施方式中,在步骤3中,在进入到跟踪模 式后,首先以较小的速度调整云台的旋转角速度,一定时间后 再以较大的速度调整云台的旋转角速度。在云台刚开始运动时, 由于目标很有可能会处在视场中的边缘位置,此时会给云台一 个较大的控制指令,会导致云台运动过快,使得图像产生运动 模糊,造成目标虽然处于视场中,但是仍无法被识别的情况, 因此在这第一阶段所给控制指令不宜过大;当云台跟踪超过一 定时间后,若仍是保持较小的控制指令,目标在云台前大机动 运动时,会造成云台因机动能力不足而导致目标丢失,因此这 一阶段需增大云台的机动能力,增大控制指令。

优选地,在进入到跟踪模式后通过下式(一)解算期望的 云台旋转角速度,并据此控制云台转动;

其中,表示期望的云台旋转角速度,kpmax表示像素偏差 项权重最大值,kpmin表示像素偏差项权重最小值,t表示时间, 具体来说是进入到跟踪模式后的时间,即在进入到跟踪模式后 开始计时,err表示像素偏差,kdmax表示像素偏差变化率权重 最大值,kdmin表示像素偏差变化率权重最小值,表示素偏 差变化率,即err的导数。

在一个优选的实施方式中,在步骤3中,在跟踪模式中,丢 失目标后,继续通过目标丢失前一帧图像对应的控制指令控制 云台,即在目标丢失的200ms内认为目标仍然可以找回;

在丢失目标200ms后未能捕捉到目标,则终止跟踪模式, 控制云台恢复到初始角度状态,即认为此时目标已经不可找回。

通过设置该时间条件,能够最大程度上地提高无人机及其 上摄像机的巡查效率,降低巡视区域有低慢小目标渗透的可能 性。

优选地,在丢失目标1s后,控制无人机回复到预定位置, 待无人机回复到预定位置后即可开始下一次的巡航作业。

优选地,在进入到跟踪模式时,实时解算获得目标的状态 估计,并据此控制无人机跟踪或者追逐目标。无人机上可以携 带攻击或者捕捉目标的设备,所以目标在被击落或者捕捉后也 会从视场域中消失。

在一个优选的实施方式中,在进入到跟踪模式时,无人机 携带云台及摄像机跟踪或者追逐发现的低慢小目标,可以预先 根据设置指令来选择追踪、击落或者捕捉等具体操作。所述无 人机的图像识别系统从每帧图像中的目标上提取出至少4个特 征点,并据此解算出目标的状态估计,所述状态估计包括目标 的位置、姿态和速度。所述特征点是目标上的特异点,便于识 别,可以根据目标的种类及外形选择设定,如四旋翼无人机的 四个电机位置。具体来说包括如下步骤:

步骤A,通过目标特征点的像素坐标获得旋转矩阵,

步骤B,通过旋转矩阵获得目标的姿态,

步骤C,通过目标的姿态获得目标的加速度,

步骤D,通过目标的加速度获得目标的实际位置和速度。

优选地,在所述步骤A中,通过下式(二)获得目标的旋 转参数:

其中,R表示旋转矩阵,即用于从正交坐标系OaXaYaZa到 相机坐标系OcXcYcZc做转换的3×3旋转矩阵,旋转矩阵中的9个 参数也称之为旋转参数;

R′表示任意旋转矩阵,其第三列[r7 r8 r9]T等于旋转轴Za, 且R′满足旋转矩阵的正交约束;

旋转轴 表示点Pi0指向点Pj0的向量, ||Pi0Pj0||表示点Pi0指向点Pj0的向量的模;

通过从每帧图像中的目标上提取出4个特征点的像素坐标 后可以求解出其中两个点Pi0和点Pj0的深度,从而确定式(二) 中的旋转轴Za,即[r7 r8 r9]T

rot(Z,α)表示目标绕Z轴的旋转角度为α;

c=cosα,s=sinα;

r1到r9分别表示任意3×3旋转矩阵R′中的每个元素,第三 列[r7 r8 r9]T等于旋转轴Za。

在所述步骤B中,通过下式(三)获得目标的姿态:

其中,θ1表示目标的俯仰角,其取值范围为

θ2表示目标的俯仰角,当θ1大于90°或小于-90度时无人机 俯仰角通过θ2表示,

ψ1表示俯仰角为θ1时对应求解得到的目标的偏航角,

ψ2表示俯仰角为θ2时对应求解得到的目标的偏航角,

φ1表示俯仰角为θ1时对应求解得到的目标的滚转角,

φ2表示俯仰角为θ2时对应求解得到的目标的滚转角, R31、R32、R33表示式(二)中求解得到的旋转矩阵R中第 三行的三个元素,

R21表示式(二)中求解得到的旋转矩阵R中第二行的第一 个元素,

R11表示式(二)中求解得到的旋转矩阵R中第一行的第一 个元素;

a sin表示反正弦函数,a tan2表示反正切函数。

目标姿态包括目标机体坐标系与惯性坐标的三个夹角,即 滚转角、俯仰角和偏航角,通过上述式(三)即可以获得。

在所述步骤C中,通过下式(四)获得目标无人机的加速 度:

a=[ax,ay,az]T (四)

其中,a表示目标的加速度,

ax表示惯性坐标系中X轴方向的加速度分量,

ay表示惯性坐标系中Y轴方向的加速度分量,

az表示竖直方向的加速度分量,az=0

其中,g表示重力加速度;

θ表示式(三)中求解所得目标无人机的俯仰角,

表示式(三)中求解所得目标无人机的滚转角,

ψ表示式(三)中求解所得目标无人机的偏航角。

本申请中优选地,无人机在追踪目标时,控制其自身处于 与目标平行的水平面内,并设定目标在水平平面内保持稳定飞 行。

在所述步骤D中,通过下式(五)获得目标的实际位置和 速度,

其中,Kk代表卡尔曼增益,γk表示用于模拟间歇测量的二 进制随机变量,如果目标在第k帧图像中被检测出,则γk=1, 如果目标无人机在第k帧图像中未被检测出,则γk=0;

wk表示第k帧图像对应的过程噪声,wk-1表示第k-1帧图像 对应的过程噪声,

表示基于k-1帧图像估计出的第k帧图像对应的状态 量,

表示估计得到的最优的第k-1帧图像对应的状态量, 即X,

表示估计得到的最优的第k帧图像对应的状态量,即X;

Zk表示第k帧图像对应的量测量,即Z;

A表示过程矩阵,H表示观测矩阵;

P表示目标的位置,v表示目标的速度,a表示目标的加 速度,h表示图像的采样周期,优选为25Hz,I3表示三维单位 矩阵。

通过上述方法,在获得每一帧图像时都能够获得该图像对 应的目标状态估计,就可以据此控制无人机自身的速度,在确 保目标和无人机之间的距离保持在一定范围内,如30米以内, 逐渐接近目标或者保持与目标之间的距离恒定,都有助于云台 及摄像机更为清晰地捕捉目标。

实施例

选取低慢小目标以12米/秒的速度做在平面上移动,其运动 轨迹如图4中实线所示,通过无人机搭载云台及摄像机对该低 慢小目标进行追踪,无人机进入搜索模式后发现目标,通过连 续5帧带有目标的图像判断得知目标深度为23米,从而进入到 跟踪模式,即为无人机在0时刻进入到跟踪模式,跟踪模式持 续6秒以上,跟踪模式下通过下式(一)控制云台转动,期间目 标丢失200ms以内,则在丢失期间继续通过目标丢失前一帧图 像对应的控制指令控制云台;

其中,表示期望的云台旋转角速度,kpmax表示像素偏差 项权重最大值,kpmin表示像素偏差项权重最小值,t表示进入 跟踪模式后的时间,err表示像素偏差,kdmax表示像素偏差变 化率权重最大值,kdmin表示像素偏差变化率权重最小值,表 示素偏差变化率。

在跟踪模式下,无人机控制其自身跟随目标,且保持固定 距离,该距离为进入跟踪模式时无人机与目标之间的距离,即 23米。具体来说,无人机通过下述步骤实时获得目标的位置和 速度信息:

步骤A,从每帧图像中的目标上提取4个特征点,并根据其 像素坐标获得旋转矩阵,

步骤B,通过旋转矩阵获得目标的姿态,

步骤C,通过目标的姿态获得目标的加速度,

步骤D,通过目标的加速度获得目标的实际位置和速度。

其中,通过下式(二)获得目标的旋转参数:

其中,R表示旋转矩阵,即用于从正交坐标系OaXaYaZa到 相机坐标系OcXcYcZc做转换的3×3旋转矩阵,旋转矩阵中的9个 参数也称之为旋转参数;

R′表示任意旋转矩阵,其第三列[r7 r8 r9]T等于旋转轴Za, 且R′满足旋转矩阵的正交约束;

旋转轴 表示点Pi0指向点Pj0的向量, ||Pi0Pj0||表示点Pi0指向点Pj0的向量的模;

通过从每帧图像中的目标上提取出4个特征点的像素坐标 后可以求解出其中两个点Pi0和点Pj0的深度,从而确定式(二) 中的旋转轴Za,即[r7 r8 r9]T

rot(Z,α)表示目标绕Z轴的旋转角度为α;

c=cosα,s=sinα;

r1到r9分别表示任意3×3旋转矩阵R′中的每个元素,第三 列[r7 r8 r9]T等于旋转轴Za。

在所述步骤B中,通过下式(三)获得目标的姿态:

其中,θ1表示目标的俯仰角,其取值范围为

θ2表示目标的俯仰角,当θ1大于90°或小于-90度时无人机 俯仰角通过θ2表示,

ψ1表示俯仰角为θ1时对应求解得到的目标的偏航角,

ψ2表示俯仰角为θ2时对应求解得到的目标的偏航角,

φ1表示俯仰角为θ1时对应求解得到的目标的滚转角,

φ2表示俯仰角为θ2时对应求解得到的目标的滚转角,

R31、R32、R33表示式(二)中求解得到的旋转矩阵R中第 三行的三个元素,

R21表示式(二)中求解得到的旋转矩阵R中第二行的第一 个元素,

R11表示式(二)中求解得到的旋转矩阵R中第一行的第一 个元素;

asin表示反正弦函数,atan2表示反正切函数。

目标姿态包括目标机体坐标系与惯性坐标的三个夹角,即 滚转角、俯仰角和偏航角,通过上述式(三)即可以获得。

在所述步骤C中,通过下式(四)获得目标无人机的加速 度:

a=[ax,ay,az]T (四)

其中,a表示目标的加速度,

ax表示惯性坐标系中X轴方向的加速度分量,

ay表示惯性坐标系中Y轴方向的加速度分量,

az表示竖直方向的加速度分量,az=0

其中,g表示重力加速度;

θ表示式(三)中求解所得目标无人机的俯仰角,

表示式(三)中求解所得目标无人机的滚转角,

ψ表示式(三)中求解所得目标无人机的偏航角。

本申请中优选地,无人机在追踪目标时,控制其自身处于 与目标平行的水平面内,并设定目标在水平平面内保持稳定飞 行。

在所述步骤D中,通过下式(五)获得目标的实际位置和 速度,

其中,Kk代表卡尔曼增益,γk表示用于模拟间歇测量的二 进制随机变量,如果目标在第k帧图像中被检测出,则γk=1, 如果目标无人机在第k帧图像中未被检测出,则γk=0;

wk表示第k帧图像对应的过程噪声,wk-1表示第k-1帧图像 对应的过程噪声,

表示基于k-1帧图像估计出的第k帧图像对应的状态 量,

表示估计得到的最优的第k-1帧图像对应的状态量, 即X,

表示估计得到的最优的第k帧图像对应的状态量,即X;

Zk表示第k帧图像对应的量测量,即Z;

A表示过程矩阵,H表示观测矩阵;

P表示目标的位置,v表示目标的速度,a表示目标的加 速度,h表示图像的采样周期,优选为25Hz,I3表示三维单位 矩阵。

选取跟踪模式下前5秒内通过上述方法获得的目标轨迹,将 该轨迹与目标真实轨迹对比,得到的轨迹偏移情况如图2和图3 中所示,得到的观测目标位置轨迹如图4中虚线所示。

从图2和图3中可知,云台和相机在进入到跟踪模式后大约 1s左右时就能基本使得目标在0.1误差范围以内(上下误差总的 为-1~1),且没有出现过运动模糊使得目标无法识别的情况(即 像素偏差为0);另外,在跟踪模式下,中途有丢失目标的情况, 由于继续通过目标丢失前一帧图像对应的控制指令控制云台, 200ms内再次捕获到目标,还能继续跟踪。

从图4可知,观测到的目标轨迹基本与真实的目标轨迹基 本重合,两条轨迹偏差较小,观测到的轨迹能够用以表征真实 轨迹。

以上结合了优选的实施方式对本发明进行了说明,不过这 些实施方式仅是范例性的,仅起到说明性的作用。在此基础上, 可以对本发明进行多种替换和改进,这些均落入本发明的保护 范围内。

16页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:具有追光功能的阳光房

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!

技术分类