CN110516684A - 用于确定无人机姿态信息的方法和装置 - Google Patents
用于确定无人机姿态信息的方法和装置 Download PDFInfo
- Publication number
- CN110516684A CN110516684A CN201810488482.8A CN201810488482A CN110516684A CN 110516684 A CN110516684 A CN 110516684A CN 201810488482 A CN201810488482 A CN 201810488482A CN 110516684 A CN110516684 A CN 110516684A
- Authority
- CN
- China
- Prior art keywords
- point coordinate
- feature point
- coordinate sequence
- unmanned plane
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000875 corresponding Effects 0.000 claims abstract description 78
- 238000001514 detection method Methods 0.000 claims abstract description 58
- 230000001537 neural Effects 0.000 claims description 89
- 238000004590 computer program Methods 0.000 claims description 5
- 239000000203 mixture Substances 0.000 description 11
- 238000000034 method Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000005284 excitation Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 210000002569 neurons Anatomy 0.000 description 6
- 210000003128 Head Anatomy 0.000 description 4
- 210000004218 Nerve Net Anatomy 0.000 description 4
- 230000004913 activation Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical Effects 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 210000001331 Nose Anatomy 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 238000010192 crystallographic characterization Methods 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 235000005035 ginseng Nutrition 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000005291 magnetic Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000969 carrier Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000003365 glass fiber Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Abstract
本申请实施例公开了用于确定无人机姿态信息的方法和装置。该方法的一具体实施方式包括:获取拍摄目标无人机所得到的无人机图像;将无人机图像输入预先训练的特征点检测模型,得到与目标无人机对应的目标特征点坐标序列,其中,特征点检测模型用于表征包括无人机的图像与特征点坐标序列之间的对应关系;获取用于表征目标无人机的三维模型的三维特征点坐标序列;基于目标特征点坐标序列和三维特征点坐标序列,求解透视N点定位问题,得到目标无人机的姿态信息。该实施方式实现了根据无人机图像确定无人机的姿态信息。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于确定无人机姿态信息的方法和装置。
背景技术
无人机自主降落阶段,除了准确的位置估计外,精准的姿态估计也至关重要,关系到无人机降落的安全和智能化水平。目前对无人机姿态的估计主要依靠惯性测量元件和视觉合作标志定位等手段。
发明内容
本申请实施例提出了用于确定无人机姿态信息的方法和装置。
第一方面,本申请实施例提供了一种用于确定无人机姿态信息的方法,该方法包括:获取拍摄目标无人机所得到的无人机图像;将无人机图像输入预先训练的特征点检测模型,得到与目标无人机对应的目标特征点坐标序列,其中,特征点检测模型用于表征包括无人机的图像与特征点坐标序列之间的对应关系;获取用于表征目标无人机的三维模型的三维特征点坐标序列;基于目标特征点坐标序列和三维特征点坐标序列,求解透视N点定位问题,得到目标无人机的姿态信息。
在一些实施例中,特征点检测模型包括第一卷积神经网络和第二卷积神经网络;以及将无人机图像输入预先训练的特征点检测模型,得到与目标无人机对应的目标特征点坐标序列,包括:将无人机图像输入预先训练的第一卷积神经网络,得到与目标无人机对应的第一特征点坐标序列;将第一区域图像输入预先训练的第二卷积神经网络,得到与目标无人机对应的第二特征点坐标序列,其中,第一区域图像是无人机图像的第一预设区域的图像;根据第一特征点坐标序列和第二特征点坐标序列,生成目标特征点坐标序列。
在一些实施例中,特征点检测模型还包括第三卷积神经网络;以及将无人机图像输入预先训练的特征点检测模型,得到与目标无人机对应的目标特征点坐标序列,还包括:在根据第一特征点坐标序列和第二特征点坐标序列,生成目标特征点坐标序列之前,将第二区域图像输入预先训练的第三卷积神经网络,得到与目标无人机对应的第三特征点坐标序列,其中,第二区域图像是无人机图像的第二预设区域的图像;以及根据第一特征点坐标序列和第二特征点坐标序列,生成目标特征点坐标序列,包括:根据第一特征点坐标序列、第二特征点坐标序列和第三特征点坐标序列,生成目标特征点坐标序列。
在一些实施例中,第一预设区域是无人机图像中包括目标无人机的左机翼、左尾翼和起落架的区域。
在一些实施例中,第二预设区域是无人机图像中包括目标无人机的右机翼、右尾翼和起落架的区域。
在一些实施例中,特征点检测模型包括第四卷积神经网络;以及将无人机图像输入预先训练的特征点检测模型,得到与目标无人机对应的目标特征点坐标序列,包括:将无人机图像输入第四卷积神经网络,得到与目标无人机对应的目标特征点坐标序列。
第二方面,本申请实施例提供了一种用于确定无人机姿态信息的装置,该装置包括:第一获取单元,被配置成获取拍摄目标无人机所得到的无人机图像;输入单元,被配置成将无人机图像输入预先训练的特征点检测模型,得到与目标无人机对应的目标特征点坐标序列,其中,特征点检测模型用于表征包括无人机的图像与特征点坐标序列之间的对应关系;第二获取单元,被配置成获取用于表征目标无人机的三维模型的三维特征点坐标序列;求解单元,被配置成基于目标特征点坐标序列和三维特征点坐标序列,求解透视N点定位问题,得到目标无人机的姿态信息。
在一些实施例中,特征点检测模型包括第一卷积神经网络和第二卷积神经网络;以及输入单元包括:第一输入模块,被配置成将无人机图像输入预先训练的第一卷积神经网络,得到与目标无人机对应的第一特征点坐标序列;第二输入模块,被配置成将第一区域图像输入预先训练的第二卷积神经网络,得到与目标无人机对应的第二特征点坐标序列,其中,第一区域图像是无人机图像的第一预设区域的图像;生成模块,被配置成根据第一特征点坐标序列和第二特征点坐标序列,生成目标特征点坐标序列。
在一些实施例中,特征点检测模型还包括第三卷积神经网络;以及输入单元还包括:第三输入模块,被配置成在根据第一特征点坐标序列和第二特征点坐标序列,生成目标特征点坐标序列之前,将第二区域图像输入预先训练的第三卷积神经网络,得到与目标无人机对应的第三特征点坐标序列,其中,第二区域图像是无人机图像的第二预设区域的图像;以及生成模块进一步被配置成:根据第一特征点坐标序列、第二特征点坐标序列和第三特征点坐标序列,生成目标特征点坐标序列。
在一些实施例中,第一预设区域是无人机图像中包括目标无人机的左机翼、左尾翼和起落架的区域。
在一些实施例中,第二预设区域是无人机图像中包括目标无人机的右机翼、右尾翼和起落架的区域。
在一些实施例中,特征点检测模型包括第四卷积神经网络;以及输入单元进一步被配置成:将无人机图像输入第四卷积神经网络,得到与目标无人机对应的目标特征点坐标序列。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于确定无人机姿态信息的方法和装置,通过将拍摄目标无人机所得到的无人机图像输入特征点检测模型,得到目标特征点坐标序列,再基于目标特征点坐标序列和用于表征目标无人机的三维模型的三维特征点坐标序列,求解透视N点定位问题,得到目标无人机的姿态信息。从而实现了根据无人机图像确定无人机的姿态信息,丰富了确定无人机的姿态信息的确定方式。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于确定无人机姿态信息的方法的一个实施例的流程图;
图3是根据本申请的用于确定无人机姿态信息的方法的又一个实施例的流程图;
图4是根据本申请的用于确定无人机姿态信息的装置的一个实施例的结构示意图;
图5是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于确定无人机姿态信息的方法或用于确定无人机姿态信息的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括无人机101、102、103,无线网络104和地面引导设备105。无线网络104用以在无人机101、102、103和地面引导设备105之间提供通信链路的介质。无线网络104可以包括但不限于3G/4G/5G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接类型。
用户可以使用地面引导设备105通过无线网络104与无人机101、102、103交互,以接收或发送消息等。地面引导设备105上可以安装有各种通讯客户端应用,例如照片采集类应用、无人机姿态估计类应用、着陆引导系统(Landing Guidance System)等。其中,地面引导设备105可以运行着陆引导系统,通过无线网络104向无人机101、102、103提供精确的着陆方位、下滑道和距离等引导信息,无人机101、102、103依据这些信息对准跑道并按给定的下滑角进场和着陆,以保证接地点的偏差在规定的范围以内。
需要说明的是,本申请实施例所提供的用于确定无人机姿态信息的方法一般由地面引导设备105执行,相应地,用于确定无人机姿态信息的装置一般设置于地面引导设备105中。
应该理解,图1中的无人机、无线网络和地面引导设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的无人机、无线网络和地面引导设备。
继续参考图2,其示出了根据本申请的用于确定无人机姿态信息的方法的一个实施例的流程200。该用于确定无人机姿态信息的方法,包括以下步骤:
步骤201,获取拍摄目标无人机所得到的无人机图像。
在本实施例中,用于确定无人机姿态信息的方法的执行主体(例如图1所示的地面引导设备)可以获取拍摄目标无人机所得到的无人机图像。
这里,无人机图像可以是与上述执行主体网络连接的其他电子设备发送给上述执行主体的,这样,上述执行主体可以通过有线连接方式或者无线连接方式从上述其他电子设备获取无人机图像。例如,上述其他电子设备可以是拍摄目标无人机的图像的相机。当上述相机拍摄了目标无人机的图像时,会将所拍摄的图像发送给上述执行主体。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
这里,无人机图像也可以是存储在上述执行主体本地的,这样,上述执行主体可以本地提取无人机图像。
需要说明的是,这里,目标无人机仅仅用于示例性说明,实践中,该用于确定无人机姿态信息的方法可以应用于任何指定的无人机。
步骤202,将无人机图像输入预先训练的特征点检测模型,得到与目标无人机对应的目标特征点坐标序列。
在本实施例中,上述执行主体可以将步骤201中所获取的无人机图像输入预先训练的特征点检测模型,得到与目标无人机对应的目标特征点坐标序列。其中,上述特征点检测模型用于表征包括无人机的图像与特征点坐标序列之间的对应关系。
需要说明的是,上述特征点检测模型可以是利用各种机器学习方法和训练样本集,对现有的机器学习模型(例如各种人工神经网络等)进行有监督训练而得到的。其中,上述训练样本集中的训练样本可以包括拍摄无人机所得到的样本图像和与该样本图像对应的标注信息,这里,与该样本图像对应的标注信息可以包括该样本图像中所包括的无人机的特征点坐标序列。例如,可以由人工标注来获得样本图像对应的标注信息。可以理解的是,不同的无人机具有不同的外观和结构特征,因此,在选取无人机的哪些点作为无人机的特征点时,可以根据无人机的具体外观和结构特征来具体决定,即,在人工标注样本图像中的特征点时,可以提前设计好标注的规则,样本图像中的哪些点才是需要标注的特征点。例如,可以以无人机的机头区域、机翼区域、起落架区域、尾翼区域等的几何中心点作为需要标注的特征点。而且,在训练特征点检测模型时,所用到的训练样本中的样本图像所包括的无人机最好与目标无人机具有相同或者相似的外观或者结构特征,这样,基于上述训练样本集训练得到的特征点检测模型更容易检测出拍摄目标无人机所得到的无人机图像中的特征点。
在本实施例的一些可选的实现方式中,上述特征点检测模型可以包括第四卷积神经网络。这样,步骤202可以如下进行:将步骤201中所获取的无人机图像输入第四卷积神经网络,得到与目标无人机对应的目标特征点坐标序列。这里,第四卷积神经网络可以包括输入层、卷积层、激活函数层、池化层和全连接层。其中,输入层可以用于输入无人机图像。卷积层可以用于提取图像特征,池化层可以用于对输入的信息进行下采样(Down Sample)。激活函数层使用各种非线性激活函数(例如ReLU(Rectified Linear Units,修正线性单元)函数、Sigmoid函数、Tanh(双曲正切)函数等)对输入的信息进行非线性计算。全连接层用于连接两层以实现对输入的信息进行特征升维或降维。
步骤203,获取用于表征目标无人机的三维模型的三维特征点坐标序列。
在本实施例中,用于确定无人机姿态信息的执行主体可以本地或者远程地从与上述执行主体网络连接的其他电子设备获取用于表征目标无人机的三维模型的三维特征点坐标序列。表征物体的三维模型可以采用多种办法,例如可以用三维坐标点序列、曲线或者曲面片来表示三维模型。这里,可以采用三维坐标点序列来表示目标无人机的三维模型。
可以理解的是,无人机自出厂后本身结构相对固定,不会产生很大的变化,因此,无人机厂商可以在无人机出厂时提供用于表征无人机的三维模型的三维特征点坐标序列。这样,上述执行主体可以获取目标无人机的厂商提供的用于表征目标无人机的三维模型的三维特征点坐标序列。
在本实施例的一些可选的实现方式中,上述执行主体也可以支持确定具有多种外观和结构特征的无人机的姿态信息,这样,在步骤202中,将步骤201中获取的拍摄目标无人机所得到的无人机图像输入预先训练的特征点检测模型时,需要如下进行:
首先,确定目标无人机对应的无人机类型。
这里,可以预先根据上述执行主体需要支持的无人机的外观和结构特征而设置有多种无人机类型。每种无人机类型所对应的无人机的外观和结构可以是相同或者相似的。而且,每个和上述执行主体通信的无人机均预置有该无人机所对应的无人机类型。这样,即可以确定目标无人机对应的无人机类型。
然后,获取与上述所确定的无人机类型对应的特征点检测模型。
这里,可以预先为预设的多种无人机类型中的每种无人机类型训练与该种无人机类型对应的特征点检测模型。在训练与该种无人机类型对应的特征点检测模型时,所用到的训练样本集的样本图像可以是拍摄该种无人机类型的无人机所得到的图像,而且,针对训练样本集中的样本图像的标注特征点坐标序列也是按照针对该种无人机类型所对应的标注规则而标注的特征点坐标序列。这样,针对每种无人机类型所训练的特征点检测模型可以检测出拍摄该种无人机类型的无人机所得到的图像中的特征点。
最后,将上述无人机图像输入上述所获取的特征点检测模型,得到与目标无人机对应的目标特征点坐标序列。
这里,由于上述所获取的特征点检测模型是针对该种无人机类型而训练的,因此,将上述无人机图像输入上述所获取的特征点检测模型,可以更有针对性,从而得到与目标无人机对应的目标特征点坐标序列。
步骤204,基于目标特征点坐标序列和三维特征点坐标序列,求解透视N点定位问题,得到目标无人机的姿态信息。
在本实施例中,上述执行主体可以基于步骤202中得到的目标特征点坐标序列和步骤203中得到的三维特征点坐标序列,求解透视N点定位(PNP,Perspective-N-Point)问题,得到目标无人机的姿态信息。
这里,目标无人机的姿态信息可以包括目标无人机相对于目标无人机本身的机体坐标系的俯仰角、偏航角和滚转角。
实践中,基于步骤202中得到的目标特征点坐标序列和步骤203中得到的三维特征点坐标序列,求解PNP问题,得到目标无人机的姿态信息,具体可以包括:
(1)、通过步骤203中所获取的三维特征点坐标序列中的N个三维特征点坐标和步骤202中所得的目标特征点坐标序列中的二维特征点坐标,求解PNP问题得到目标无人机相对于拍摄无人机图像的相机的相机坐标系的姿态信息。其中,N为正整数,实践中,通常N为大于等于4的正整数。
(2)、获取拍摄无人图像的相机的相机外参数,即,相机坐标系与世界坐标系(例如,大地坐标系)之间的转换矩阵。
(3)、获取目标无人机的机体坐标系与世界坐标系(例如,大地坐标系)之间的转换矩阵。
(4)、根据相机坐标系与世界坐标系(例如,大地坐标系)之间的转换矩阵以及目标无人机的机体坐标系与世界坐标系(例如,大地坐标系)之间的转换矩阵,确定机体坐标系与相机坐标系之间的转换矩阵。
(5)、根据求解得到的目标无人机相对于拍摄无人机图像的相机的相机坐标系的姿态信息以及机体坐标系与相机坐标系之间的转换矩阵,确定目标无人机相对于机体坐标系的姿态信息。
需要说明的是,如何求解PNP问题是本领域广泛研究和应用的现有技术,在此不再赘述。
本申请的上述实施例提供的方法通过将拍摄目标无人机所得到的无人机图像输入特征点检测模型,得到目标特征点坐标序列,再基于目标特征点坐标序列和用于表征目标无人机的三维模型的三维特征点坐标序列,求解透视N点定位问题,得到目标无人机的姿态信息。从而实现了根据无人机图像确定无人机的姿态信息,丰富了确定无人机的姿态信息的确定方式。
进一步参考图3,其示出了用于确定无人机姿态信息的方法的又一个实施例的流程300。该用于确定无人机姿态信息的方法的流程300,包括以下步骤:
步骤301,获取拍摄目标无人机所得到的无人机图像。
在本实施例中,用于确定无人机姿态信息的执行主体(例如图1所示的地面引导设备)可以获取拍摄目标无人机所得到的无人机图像。
步骤302,将无人机图像输入预先训练的第一卷积神经网络,得到与目标无人机对应的第一特征点坐标序列。
在本实施例中,为了检测出无人机图像中的所有特征点,上述执行主体可以将步骤301中所获取的无人机图像输入预先训练的第一卷积神经网络,得到与目标无人机对应的第一特征点坐标序列。
需要说明的是,第一卷积神经网络用于表征包括无人机的图像与特征点坐标序列之间的对应关系。作为示例,可以按照如下第一训练步骤预先训练得到第一卷积神经网络:
第一步,确定初始第一卷积神经网络的网络结构,以及初始化初始第一卷积神经网络的网络参数。
这里,第一训练步骤的执行主体可以与用于确定无人机姿态信息的方法的执行主体相同或者不同。如果相同,则第一训练步骤的执行主体可以在训练得到第一卷积神经网络后,将训练好的第一卷积神经网络的网络结构信息和网络参数的参数值存储在本地。如果不同,则第一训练步骤的执行主体可以在训练得到第一卷积神经网络后,将训练好的第一卷积神经网络的网络结构信息和网络参数的参数值发送给用于确定无人机姿态信息的方法的执行主体。
由于卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成,则这里需要确定初始第一卷积神经网络包括哪些层(例如,输入层,卷积层,池化层,激励函数层,全连接层等等),层与层之间的连接顺序关系,以及每个层都包括哪些参数(例如,权重weight、偏置项bias、卷积的步长)等等。
其中,输入层可以用于输入无人机图像。针对输入层可以确定所需输入的图像的图像大小。
卷积层可以用于提取图像特征。针对每个卷积层可以确定有多少个卷积核,每个卷积核的大小,每个卷积核中的各个神经元的权重,每个卷积核对应的偏置项,相邻两次卷积之间的步长,是否需要填充,填充多少像素点和填充用的数值(一般是填充为0)等等。
而池化层可以用于对输入的信息进行下采样(Down Sample),以压缩数据和参数的量,减少过拟合。针对每个池化层可以确定该池化层的池化方法(例如,取区域平均值或者取区域最大值)。
激励函数层用于对输入的信息进行非线性计算。针对每个激励函数层可以确定具体的激励函数。例如,激活函数可以是ReLU以及ReLU各种变种激活函数、Sigmoid函数、Tanh(双曲正切)函数、Maxout函数等等。
全连接层用于连接两层,而且所连接的两层之间的所有神经元都有权重连接。针对每个全连接层需要确定该全连接层的前一层的神经元个数、该全连接层的后一层的神经元个数,从而可以确定该全连接层中的权重参数个数为I×J个,其中,I为该全连接层的前一层的神经元个数,J为该全连接层的后一层的神经元个数。实践中,通常全连接层除了包括I×J个权重参数用于执行全连接操作之外,还可以包括偏置项和进行非线性计算的激励函数,因此,还可以确定偏置项参数和所使用的激励函数。
在确定了第一卷积神经网络的网络结构之后,可以初始化第一卷积神经网络的网络参数。实践中,可以将第一卷积神经网络的各个网络参数用一些不同的小随机数进行初始化。“小随机数”用来保证网络不会因权值过大而进入饱和状态,从而导致训练失败,“不同”用来保证网络可以正常地学习。
第二步,获取训练样本集。
这里,第一训练步骤的执行主体可以本地或者远程地从与上述执行主体网络连接的其他电子设备获取训练样本集。其中,每个训练样本可以包括拍摄无人机所得到的样本图像和与该样本图像对应的标注信息,这里,与该样本图像对应的标注信息可以包括该样本图像中所包括的无人机的特征点坐标序列。例如,可以由人工标注来获得样本图像对应的标注信息。可以理解的是,不同的无人机具有不同的外观和结构特征,因此,在选取无人机的哪些点作为无人机的特征点时,可以根据无人机的具体外观和结构特征来具体决定,即,在人工标注样本图像中的特征点时,可以提前设计好标注的规则,样本图像中的哪些点才是需要标注的特征点。例如,可以以无人机的机头区域、机翼区域、起落架区域、尾翼区域等的几何中心点作为需要标注的特征点。而且,在训练特征点检测模型时,所用到的训练样本中的样本图像最好与目标无人机具有相同或者相似的外观或者结构特征,这样,基于上述训练样本集训练得到的特征点检测模型更容易检测出拍摄目标无人机所得到的无人机图像中的特征点。
第三步,对于训练样本集中的训练样本,将该训练样本中的样本图像输入初始第一卷积神经网络,得到样本特征点坐标序列,利用预设的损失函数(例如,L1范数或者L2范数)计算所得到的样本特征点坐标序列和该训练样本中的标注信息之间的差异,以及基于计算所得的差异调整上述初始第一卷积神经网络的网络参数,并在满足预设的训练结束条件的情况下,结束训练。例如,这里预设的训练结束条件可以包括但不限于:训练时间超过预设时长;训练次数超过预设次数;计算所得的差异小于预设差异阈值。
这里,可以采用各种实现方式基于计算所得的差异调整上述初始第一卷积神经网络的网络参数。例如,可以采用BP(Back Propagation,反向传播)算法或者SGD(StochasticGradient Descent,随机梯度下降)算法来调整初始第一卷积神经网络的网络参数。
第四步,将参数调整之后的初始第一卷积神经网络确定为预先训练的第一卷积神经网络。
步骤303,将第一区域图像输入预先训练的第二卷积神经网络,得到与目标无人机对应的第二特征点坐标序列。
在步骤302中将无人机图像全部输入第一卷积神经网络,目的是为了使得输入给第一卷积神经网络的图像尽量涵盖目标无人机中的所有特征点,但同时可能会导致输入给第一卷积神经网络的图像区域太大,与目标无人机的特征点不相关的区域太多,尤其是背景复杂对特征点影响较大,可能会导致特征点检测的结果不准确,并最终影响到对目标无人机的姿态信息的确定结果的不准确。
为此,上述执行主体可以首先获取第一区域图像。这里,第一区域图像是步骤301中所获取的无人机图像的第一预设区域的图像。其中,第一预设区域可以是预先设置的用于表征从无人机图像中截取包括目标无人机的第一预设部分结构的区域。例如,当目标无人机包括左机翼、右机翼、机头、左尾翼、右尾翼、左起落架、右起落架和中间起落架时,第一预设部分结构可以包括左机翼、机头、左尾翼、左起落架和中间起落架。
在本实施例的一些可选的实现方式中,第一预设区域可以是无人机图像中包括目标无人机的左机翼、左尾翼和起落架的区域。
然后,上述执行主体可以将所获取的第一区域图像输入预先训练的第二卷积神经网络,得到与目标无人机对应的第二特征点坐标序列。
可以理解的是,由于第一区域图像是无人机图像中的部分图像,因此,由第一区域图像所得到的第二特征点坐标序列中的特征点坐标的数目可以小于由无人机图像所得到的第一特征点坐标序列中的特征点坐标的数目。
需要说明的是,第二卷积神经网络用于表征包括无人机的图像中第一预设区域的图像与特征点坐标序列之间的对应关系。作为示例,可以按照如下第二训练步骤预先训练得到第二卷积神经网络:
第一步,确定初始第二卷积神经网络的网络结构,以及初始化初始第二卷积神经网络的网络参数。
这里,第二训练步骤的执行主体可以与用于确定无人机姿态信息的方法的执行主体相同或者不同。如果相同,则第二训练步骤的执行主体可以在训练得到第二卷积神经网络后将训练好的第二卷积神经网络的网络结构信息和网络参数的参数值存储在本地。如果不同,则第二训练步骤的执行主体可以在训练得到第二卷积神经网络后,将训练好的第二卷积神经网络的网络结构信息网络参数的参数值发送给用于确定无人机姿态信息的方法的执行主体。
这里,关于如何确定初始第二卷积神经网络的网络结构,以及初始化初始第二卷积神经网络的网络参数,与第一训练步骤中第一步的操作基本相同,在此不再赘述。
第二步,获取训练样本集。
这里,关于如何获取训练样本集,以及关于训练样本集的具体描述可以参考第一训练步骤中第二步的相关描述,在此不再赘述。
第三步,对于所获取的训练样本集中的每个训练样本,生成与该训练样本对应的第一训练样本,以及用所生成的各个第一训练样本生成第一训练样本集。其中,所生成的与该训练样本对应的第一训练样本包括第一样本区域图像和第一样本标注信息,第一样本区域图像是该训练样本中的样本图像中第一预设区域的图像,第一样本标注信息包括该训练样本中的标注信息中针对第一样本区域图像的特征点坐标序列。
第四步,对于第一训练样本集中的第一训练样本,将该第一训练样本中的第一样本区域图像输入初始第二卷积神经网络,得到样本第一区域特征点坐标序列,利用预设的损失函数(例如,L1范数或者L2范数)计算所得到的样本第一区域特征点坐标序列和该第一训练样本中的第一样本标注信息之间的差异,以及基于计算所得的差异调整上述初始第二卷积神经网络的网络参数,并在满足预设的训练结束条件的情况下,结束训练。例如,这里预设的训练结束条件可以包括但不限于:训练时间超过预设时长;训练次数超过预设次数;计算所得的差异小于预设差异阈值。
这里,可以采用各种实现方式基于计算所得的差异调整上述初始第二卷积神经网络的网络参数。例如,可以采用BP算法或者SGD算法来调整初始第二卷积神经网络的网络参数。
第五步,将参数调整之后的初始第二卷积神经网络确定为预先训练的第二卷积神经网络。
步骤304,根据第一特征点坐标序列和第二特征点坐标序列,生成目标特征点坐标序列。
在本实施例中,上述执行主体可以采用各种实现方式根据步骤302中生成的第一特征点坐标序列和步骤303中生成的第二特征点坐标序列,生成与目标无人机对应的目标特征点坐标序列。
实践中,第一特征点坐标序列和第二特征点坐标序列中所包括的特征点坐标数目分别是固定的,这里可以假设第一特征点坐标序列包括第一预设数目个特征点坐标,假设第二特征点坐标序列包括第二预设数目个特征点坐标,而且,第二预设数目小于第一预设数目。另外,由于第一特征点坐标序列是对无人机图像整体进行特征点检测所得到的,因此可以认为第一特征点坐标序列包括目标无人机的所有特征点坐标;而第二特征点坐标序列是对无人机图像中的第一预设区域进行特征点检测所得到的,因此可以认为第二特征点坐标序列包括目标无人机的第一预设部分结构的特征点坐标。综上,第二特征点坐标序列中的每个特征点坐标可以与第一特征点坐标序列中的某个特征点坐标具有关联关系,即,第二特征点坐标序列中的每个特征点坐标都可以在第一特征点坐标序列中找到与该特征点坐标具有关联关系的特征点坐标,该具有关联关系的两个特征点坐标用于表征目标无人机中的相同部分。
基于上述描述,下面给出两种具体实现方式:
第一种实现方式:首先,对于第一特征点坐标序列的每个特征点坐标,确定第二特征点坐标序列中是否存在与该特征点坐标具有关联关系的特征点坐标,如果确定存在,则将该特征点坐标更新为第二特征点坐标序列中与该特征点坐标具有关联关系的特征点坐标;如果确定不存在,则保留该特征点坐标。然后,将更新之后的第一特征点坐标序列确定为目标特征点坐标序列。
第二种实现方式:首先,对于第一特征点坐标序列的每个特征点坐标,确定第二特征点坐标序列中是否存在与该特征点坐标具有关联关系的特征点坐标,如果确定存在,则按照第一预设权重系数对该特征点坐标和第二特征点坐标序列中与该特征点坐标具有关联关系的特征点坐标进行加权,并将该特征点坐标更新为加权之后得到的特征点坐标;如果确定不存在,则保留该特征点坐标。然后,将更新之后的第一特征点坐标序列确定为目标特征点坐标序列。可以理解的是,这里第一预设权重系数可以包括针对第一特征点坐标序列的权重系数和针对第二特征点坐标序列的权重系数。
在本实施例的一些可选的实现方式中,上述执行主体还可以在执行步骤304之前,执行以下步骤303’:
步骤303’,将第二区域图像输入预先训练的第三卷积神经网络,得到与目标无人机对应的第三特征点坐标序列。
这里,上述执行主体可以首先获取第二区域图像。这里,第二区域图像是步骤301中所获取的无人机图像的第二预设区域的图像。其中,第二预设区域可以是预先设置的用于表征从无人机图像中截取包括目标无人机的第二预设部分结构的区域。例如,当目标无人机包括左机翼、右机翼、机头、左尾翼、右尾翼、左起落架、右起落架和中间起落架时,第二预设部分结构可以包括右机翼、机头、右尾翼、右起落架和中间起落架。这里,第二预设区域可以不同于上述第一预设区域,第二预设部分结构也可以不同于第一预设部分结构,但是第二预设区域可以与上述第一预设区域部分重叠,第二预设部分结构也可以与第一预设部分结构部分重叠。
可选地,第二预设区域可以是无人机图像中包括目标无人机的右机翼、右尾翼和起落架的区域。
然后,上述执行主体可以将所获取的第二区域图像输入预先训练的第三卷积神经网络,得到与目标无人机对应的第三特征点坐标序列。
可以理解的是,由于第二区域图像是无人机图像中的部分图像,因此,由第二区域图像所得到的第三特征点坐标序列中的特征点坐标的数目可以小于由无人机图像所得到的第一特征点坐标序列中的特征点坐标的数目。
需要说明的是,第三卷积神经网络用于表征包括无人机的图像中第二预设区域的图像与特征点坐标序列之间的对应关系。作为示例,可以按照如下第三训练步骤预先训练得到第三卷积神经网络:
第一步,确定初始第三卷积神经网络的网络结构,以及初始化初始第三卷积神经网络的网络参数。
这里,关于如何确定初始第三卷积神经网络的网络结构,以及初始化初始第三卷积神经网络的网络参数,与第一训练步骤中第一步的操作基本相同,在此不再赘述。
第二步,获取训练样本集。
这里,关于如何获取训练样本集,以及关于训练样本集的具体描述可以参考第一训练步骤中第二步的相关描述,在此不再赘述。
第三步,对于所获取的训练样本集中的每个训练样本,生成与该训练样本对应的第二训练样本,以及用所生成的各个第二训练样本生成第二训练样本集。其中,所生成的与该训练样本对应的第二训练样本包括第二样本区域图像和第二样本标注信息,第二样本区域图像是该训练样本中的样本图像中第二预设区域的图像,第二样本标注信息包括该训练样本中的标注信息中针对第二样本区域图像的特征点坐标序列。
第四步,对于第二训练样本集中的第二训练样本,将该第二训练样本中的第二样本区域图像输入初始第三卷积神经网络,得到样本第二区域特征点坐标序列,利用预设的损失函数(例如,L1范数或者L2范数)计算所得到的样本第二区域特征点坐标序列和该第二训练样本中的第二样本标注信息之间的差异,以及基于计算所得的差异调整上述初始第三卷积神经网络的网络参数,并在满足预设的训练结束条件的情况下,结束训练。例如,这里预设的训练结束条件可以包括但不限于:训练时间超过预设时长;训练次数超过预设次数;计算所得的差异小于预设差异阈值。
这里,可以采用各种实现方式基于计算所得的差异调整上述初始第三卷积神经网络的网络参数。例如,可以采用BP算法或者SGD算法来调整初始第三卷积神经网络的网络参数。
第五步,将参数调整之后的初始第三卷积神经网络确定为预先训练的第三卷积神经网络。
基于上述可选实现方式,上述执行主体可以在执行完步骤303’后,按照如下方式执行步骤304:根据第一特征点坐标序列、第二特征点坐标序列和第三特征点坐标序列,生成目标特征点坐标序列。
这里,上述执行主体可以采用各种实现方式根据步骤302中生成的第一特征点坐标序列、步骤303中生成的第二特征点坐标序列和步骤303’中生成的第三特征点坐标序列,生成与目标无人机对应的目标特征点坐标序列。
实践中,第一特征点坐标序列、第二特征点坐标序列和第三特征点坐标序列中所包括的特征点坐标数目分别是固定的,这里可以假设第一特征点坐标序列包括第一预设数目个特征点坐标,假设第二特征点坐标序列包括第二预设数目个特征点坐标,假设第三特征点坐标序列包括第三预设数目个特征点坐标,而且,第二预设数目和第三预设数目均小于第一预设数目。另外,由于第一特征点坐标序列是对无人机图像整体进行特征点检测所得到的,因此可以认为第一特征点坐标序列包括目标无人机的所有特征点坐标;而第二特征点坐标序列是对无人机图像中的第一预设区域进行特征点检测所得到的,因此可以认为第二特征点坐标序列包括目标无人机的第一预设部分结构的特征点坐标,第三特征点坐标序列是对无人机图像中的第二预设区域进行特征点检测所得到的,因此可以认为第三特征点坐标序列包括目标无人机的第二预设部分结构的特征点坐标。综上,第二特征点坐标序列中的每个特征点坐标可以与第一特征点坐标序列中的某个特征点坐标具有关联关系,即,第二特征点坐标序列中的每个特征点坐标都可以在第一特征点坐标序列中找到与该特征点坐标具有关联关系的特征点坐标,该具有关联关系的两个特征点坐标用于表征目标无人机中的相同部分;第三特征点坐标序列中的每个特征点坐标也可以与第一特征点坐标序列中的某个特征点坐标具有关联关系,即,第三特征点坐标序列中的每个特征点坐标都可以在第一特征点坐标序列中找到与该特征点坐标具有关联关系的特征点坐标,该具有关联关系的两个特征点坐标用于表征目标无人机中的相同部分。
基于上述描述,下面给出两种具体实现方式:
第一种实现方式:首先,对于第一特征点坐标序列的每个特征点坐标,确定第二特征点坐标序列中是否存在与该特征点坐标具有关联关系的特征点坐标,如果确定存在,则将该特征点坐标更新为第二特征点坐标序列中与该特征点坐标具有关联关系的特征点坐标;如果确定不存在,则进一步确定第三特征点坐标序列中是否存在与该特征点坐标具有关联关系的特征点坐标,如果确定存在,则将该特征点坐标更新为第三特征点坐标序列中与该特征点坐标具有关联关系的特征点坐标;如果确定第二特征点坐标序列中和第三特征点坐标序列中均不存在与该特征点坐标关联关系的特征点坐标,则保留该特征点坐标。然后,将更新之后的第一特征点坐标序列确定为目标特征点坐标序列。
第二种实现方式:首先,对于第一特征点坐标序列的每个特征点坐标,确定第二特征点坐标序列中和第三特征点坐标序列中是否都存在与该特征点坐标关联关系的特征点坐标,如果确定都存在,则按照第二预设权重系数对该特征点坐标、第二特征点坐标序列中与该特征点坐标具有关联关系的特征点坐标和第三特征点坐标序列中与该特征点坐标具有关联关系的特征点坐标进行加权,并将该特征点坐标更新为加权之后得到的特征点坐标;如果确定不都存在,则进一步确定第二特征点坐标序列中或者第三特征点坐标序列中是否存在与该特征点坐标关联关系的特征点坐标,如果确定存在,则按照第三预设权重系数对该特征点坐标、第二特征点坐标序列中或者第三特征点坐标序列中与该特征点坐标具有关联关系的特征点坐标进行加权,并将该特征点坐标更新为加权之后得到的特征点坐标;如果确定第二特征点坐标序列中和第三特征点坐标序列中都不存在与该特征点坐标关联关系的特征点坐标,则保留该特征点坐标。然后,将更新之后的第一特征点坐标序列确定为目标特征点坐标序列。可以理解的是,这里第二预设权重系数可以包括针对第一特征点坐标序列的权重系数、针对第二特征点坐标序列的权重系数和针对第三特征点坐标序列的权重系数。第三预设权重系数可以包括针对第一特征点坐标序列的权重系数和针对第二特征点坐标序列的权重系数或者针对第三特征点坐标序列的权重系数。
步骤305,基于目标特征点坐标序列和三维特征点坐标序列,求解透视N点定位问题,得到目标无人机的姿态信息。
在本实施例中,步骤305的具体操作与图2所示的实施例中步骤204的操作基本相同,在此不再赘述。
从图3中可以看出,与图2对应的实施例相比,本实施例中的用于确定无人机姿态信息的方法的流程300突出了组合第一特征点坐标序列和第二特征点坐标序列得到与目标无人机对应的目标特征点坐标序列的步骤。由此,本实施例描述的方案可以更加精确地检测目标特征点坐标序列,继而提高后续确定无人机姿态信息的准确度。
进一步参考图4,作为对上述各图所示方法的实现,本申请提供了一种用于确定无人机姿态信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的用于确定无人机姿态信息的装置400包括:第一获取单元401、输入单元402、第二获取单元403和求解单元404。其中,第一获取单元401,被配置成获取拍摄目标无人机所得到的无人机图像;输入单元402,被配置成将上述无人机图像输入预先训练的特征点检测模型,得到与上述目标无人机对应的目标特征点坐标序列,其中,上述特征点检测模型用于表征包括无人机的图像与特征点坐标序列之间的对应关系;第二获取单元403,被配置成获取用于表征上述目标无人机的三维模型的三维特征点坐标序列;求解单元404,被配置成基于上述目标特征点坐标序列和上述三维特征点坐标序列,求解透视N点定位问题,得到上述目标无人机的姿态信息。
在本实施例中,用于确定无人机姿态信息的装置400的第一获取单元401、输入单元402、第二获取单元403和求解单元404的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述特征点检测模型可以包括第一卷积神经网络和第二卷积神经网络;以及上述输入单元402可以包括:第一输入模块4021,被配置成将上述无人机图像输入预先训练的上述第一卷积神经网络,得到与上述目标无人机对应的第一特征点坐标序列;第二输入模块4022,被配置成将第一区域图像输入预先训练的上述第二卷积神经网络,得到与上述目标无人机对应的第二特征点坐标序列,其中,上述第一区域图像是上述无人机图像的第一预设区域的图像;生成模块4023,被配置成根据上述第一特征点坐标序列和上述第二特征点坐标序列,生成上述目标特征点坐标序列。
在本实施例的一些可选的实现方式中,上述特征点检测模型还可以包括第三卷积神经网络;以及上述输入单元402还可以包括:第三输入模块4024,被配置成在根据上述第一特征点坐标序列和上述第二特征点坐标序列,生成上述目标特征点坐标序列之前,将第二区域图像输入预先训练的上述第三卷积神经网络,得到与上述目标无人机对应的第三特征点坐标序列,其中,上述第二区域图像是上述无人机图像的第二预设区域的图像;以及上述生成模块4023可以进一步被配置成:根据上述第一特征点坐标序列、上述第二特征点坐标序列和上述第三特征点坐标序列,生成上述目标特征点坐标序列。
在本实施例的一些可选的实现方式中,上述第一预设区域可以是上述无人机图像中包括上述目标无人机的左机翼、左尾翼和起落架的区域。
在本实施例的一些可选的实现方式中,上述第二预设区域可以是上述无人机图像中包括上述目标无人机的右机翼、右尾翼和起落架的区域。
在本实施例的一些可选的实现方式中,上述特征点检测模型可以包括第四卷积神经网络;以及上述输入单元402可以进一步被配置成:将上述无人机图像输入上述第四卷积神经网络,得到与上述目标无人机对应的目标特征点坐标序列。
需要说明的是,本申请实施例提供的用于确定无人机姿态信息的装置中各单元的实现细节和技术效果可以参考本申请中其它实施例的说明,在此不再赘述。
下面参考图5,其示出了适于用来实现本申请实施例的电子设备的计算机系统500的结构示意图。图5示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统500包括中央处理单元(CPU,Central Processing Unit)501,其可以根据存储在只读存储器(ROM,Read Only Memory)502中的程序或者从存储部分508加载到随机访问存储器(RAM,Random Access Memory)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有系统500操作所需的各种程序和数据。CPU 501、ROM502以及RAM 503通过总线504彼此相连。输入/输出(I/O,Input/Output)接口505也连接至总线504。
以下部件连接至I/O接口505:包括键盘、鼠标等的输入部分506;包括诸如阴极射线管(CRT,Cathode Ray Tube)、液晶显示器(LCD,Liquid Crystal Display)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN(局域网,Local AreaNetwork)卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。在该计算机程序被中央处理单元(CPU)501执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取单元、输入单元、第二获取单元和求解单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取拍摄目标无人机所得到的无人机图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取拍摄目标无人机所得到的无人机图像;将无人机图像输入预先训练的特征点检测模型,得到与目标无人机对应的目标特征点坐标序列,其中,特征点检测模型用于表征包括无人机的图像与特征点坐标序列之间的对应关系;获取用于表征目标无人机的三维模型的三维特征点坐标序列;基于目标特征点坐标序列和三维特征点坐标序列,求解透视N点定位问题,得到目标无人机的姿态信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。