基于三维相机或单目相机在导轨上滑动场景的测距方法

文档序号:1902793 发布日期:2021-11-30 浏览:14次 >En<

阅读说明:本技术 基于三维相机或单目相机在导轨上滑动场景的测距方法 (Distance measurement method based on scene with three-dimensional camera or monocular camera sliding on guide rail ) 是由 王方聪 石珞家 辛纪潼 查美怡 王鹏 于 2021-09-18 设计创作,主要内容包括:本发明公开了一种基于三维相机或单目相机在导轨上滑动场景的测距方法,包括:由单目相机在光学导轨上滑动或利用三维相机采集同一光轴上的一组远图和近图;把近图进行缩放,得到一系列连续的缩放图;把远图和缩放图二值化,再进行边缘提取,得到远图和近图的二值化的轮廓图;一系列近图的轮廓图依次和远图的轮廓图进行矩形卷积;比较全部的卷积值得到最大卷积值,读取最大卷积值所在的两矩阵的位置,以及重合时候的缩放得到的近图大小;保留远图和最大卷积值对应的缩放图重合的那部分,再和原来的近图组成一组信息量相等的图像。本发明为更为准确且便宜的摄像头测距方案。(The invention discloses a distance measurement method based on a scene that a three-dimensional camera or a monocular camera slides on a guide rail, which comprises the following steps: a monocular camera slides on the optical guide rail or a three-dimensional camera is used for acquiring a group of distance images and near images on the same optical axis; zooming the near image to obtain a series of continuous zoomed images; binarizing the far image and the zoom image, and then performing edge extraction to obtain binarized contour maps of the far image and the near image; performing rectangular convolution on the contour map of the series of near maps and the contour map of the far map in sequence; comparing all convolution values to obtain a maximum convolution value, reading the positions of two matrixes where the maximum convolution value is located, and obtaining the size of a near image by scaling when the maximum convolution value is superposed; and reserving the overlapped part of the far image and the zoom image corresponding to the maximum convolution value, and forming a group of images with the same information quantity with the original near image. The invention provides a more accurate and cheaper camera ranging scheme.)

基于三维相机或单目相机在导轨上滑动场景的测距方法

技术领域

本发明涉及测距领域。

背景技术

测距算法在工业检测、医疗、交通、自动驾驶建筑设计,航空航天和虚拟现实等领域都有着广泛的应用。在自动驾驶以及无人机飞行等场景中,摄像头测距相对于雷达,激光,激光雷达等测距方式,有着巨大的成本优势。

传统摄像头测距分为单目测距和双目测距。双目测距随着距离的增加,误差不断加大,无法进行远距离测距且使用麻烦难度大。传统单目测距需要对相机进行标定,相机的标定非常麻烦且几乎必定会因为标定引入误差。当前测距方式存在问题,需要改进。

发明内容

本发明的目的在于提供一种基于三维相机或单目相机在导轨上滑动场景的测距方法,得到更为准确且便宜的摄像头测距方案。

实现上述目的的技术方案是:

一种基于三维相机或单目相机在导轨上滑动场景的测距方法,包括:

步骤S1,由单目相机在光学导轨上滑动或利用三维相机采集同一光轴上的一组远图和近图;

步骤S2,通过线性插值算法进行下采样,把近图进行缩放,得到一系列连续的缩放图;

步骤S3,把远图和缩放图二值化,再进行边缘提取,得到远图和近图的二值化的轮廓图;

步骤S4,把一系列的近图的轮廓图当成算子进行连续移动,每次移动卷积一次,一系列近图的轮廓图依次和远图的轮廓图进行矩形卷积;

步骤S5,比较全部的卷积值得到最大卷积值,读取最大卷积值所在的两矩阵的位置,以及重合时候的缩放得到的近图大小;

步骤S6,保留远图和最大卷积值对应的缩放图重合的那部分,再和原来的近图组成一组信息量相等的图像;

步骤S7,进行坐标转换:将原点在图像左上角的像素直角坐标转换为极值点在图像中心的极坐标,以此坐标系为标准;

步骤S8,对远图和近图分别使用SIFT(尺度不变特征转换)角点法或SURF(尺度不变特征变换的加速健壮特性)角点法,依次输出角点在极坐标下的坐标;

步骤S9,若远图和近图中排序的角点按照极坐标的值在一定阈值范围的,就将角点进行匹配;

步骤S10,按照轮廓图的闭合边缘对角点按照物体的从属进行分类;

步骤S11,对同一图像中从属同一物体的角点进行连线,由匹配角点的位置信息得到线段的匹配关系,并选取长度最长的一对匹配线段的长度,或取远图和近图匹配线段长度的均值,或者分别取远图、近图从属同一物体的角点的极坐标长度的均值;

步骤S12,把得到的长度或均值根据情景代入相对应的光学关系中进行求解,获得物距;

步骤S13,角点根据物体的轮廓进行分类或从属关系判别,按照角点从属关系,用物距代表物体离镜头的距离。

优选的,步骤S12中,所述的情景指:单目相机在光学导轨上滑动的情景,或者三维相机情景。

优选的,三维相机指:利用单目测距原理的体积小共虚轴便携三维相机。

优选的,步骤S4中,遍历一遍后,一个像素位置重合的部分相乘得到1,不重合的位置相乘可能得到0,也可能得到1。

优选的,步骤S6中,或者重合时缩放得到的近图和未缩放的近图组成一组信息量相同的图像。

优选的,步骤S9中,或者使用最近距离和次近距离间比值的方法,设置一个阈值,最近距离和次近距离间比值在阈值之下,进行角点匹配,同时去除不必要的点。

优选的,在单目相机在光学导轨上滑动的情景中,

假设第一次成像时的物距为u,第二次成像时的物距为u+d;物体第一次成像时通过得到的长度值为h1,物体第二次成像时得到的长度值为h2;由于单目相机在两次成像时参数都保持不变,可得出根据光学成像关系得到的公式:

计算得到物距u。

优选的,在利用单目测距原理的体积小共虚轴三维相机情景中,L1拍摄的是近图,L2拍摄的是远图;

假设L1为50%反光镜中心与上镜头之间的距离,L2为全反镜中心与下镜头之间的距离;在第一镜头中的长度值为d1,在第二镜头中的长度值为d2;第一镜头光轴与第二镜头光轴之间距离h;物体与第一镜头的距离L’1;由于第一镜头和第二镜头具有完全相同的焦距和视角θ,根据光学成像关系得到的公式为:

计算得到物距L’1。

本发明的有益效果是:本发明避免直接使用sift角点法,不会因为前后视图的信息量差异带来角点选取的大量误差。本发明消除了远近图的信息量的误差,角点匹配和剔除的过程中进一步减小了误差,最后选取参数为长度均值或选取最长线段长度过程中,更进一步减小了算法误差。实时低成本,误差较小,适应范围广泛的测距算法,非常具有成本优势,且克服了单目测距的标定物体和双目测距不能很好得测量较远物体的问题,能够很好地服务于体积小共虚轴便携三维相机以及单目相机在导轨上滑动的测距场景。能有效测距并为近一步进行三维重构做好素材准备。

附图说明

图1是本发明的基于三维相机或单目相机在导轨上滑动场景的测距方法的流程图;

图2是本发明中体积小虚共轴便携三维相机一个具体实施例的结构图。

具体实施方式

下面将结合附图对本发明作进一步说明。

请参阅图1和图2,本发明的基于三维相机或单目相机在导轨上滑动场景的测距方法,包括下列步骤:

步骤S1,由单目相机在光学导轨上滑动或利用三维相机采集同一光轴上的一组远图和近图。远图和近图的拍摄过程中,相机参数保持一致。

步骤S2,通过线性插值算法进行下采样,把近图进行缩放,得到一系列连续的缩放图。不断减小缩放比例的缩放图。插值算法包括双线性插值,最近邻域插值,三次内插法,使用其中的一种插值算法进行图像缩放。按照相同的差值调整缩放比例,每次取得的图像缩放大小按照相同的差值减小或按照高斯金字塔的结构减小缩放比例。

步骤S3,把远图和缩放图二值化,再进行边缘提取,得到远图和近图的二值化的轮廓图。边缘提取方法包含sobel,canny,拉普拉斯方法,使用其中的一种方法进行边缘提取。

步骤S4,把一系列的近图的轮廓图当成算子进行连续移动,每次移动卷积一次,一系列近图的轮廓图依次和远图的轮廓图进行矩形卷积。每次矩阵移动都输出一个值,主要比较每个位置输出值的大小,利用这个值的大小进行比较,每个值都对应一个远近图的相对位置信息。遍历一遍后,一个像素位置重合的部分相乘得到1,不重合的位置相乘可能得到0,也可能得到1。在一次卷积中,对所有图像像素点的输出值累加后得到一次卷积结果

步骤S5,比较全部的卷积值得到最大卷积值,读取最大卷积值所在的两矩阵的位置,以及重合时候的缩放得到的近图大小。

步骤S6,保留远图和最大卷积值对应的缩放图重合的那部分,再和原来的近图组成一组信息量相等的图像;或者重合时缩放得到的近图和未缩放的近图组成一组信息量相同的图像。

步骤S7,进行坐标转换:将原点在图像左上角的像素直角坐标转换为极值点在图像中心的极坐标,以此坐标系为标准;

步骤S8,对远图和近图分别使用SIFT角点法或SURF角点法,依次输出角点在极坐标下的坐标;

步骤S9,若远图和近图中排序的角点按照极坐标的值在一定阈值范围的,就将角点进行匹配;或者使用最近距离和次近距离间比值的方法,设置一个阈值,最近距离和次近距离间比值在阈值之下,进行角点匹配,同时去除不必要的点。

步骤S10,按照轮廓图的闭合边缘对角点按照物体的从属进行分类。

步骤S11,对同一图像中从属同一物体的角点进行连线,由匹配角点的位置信息得到线段的匹配关系,并选取长度最长的一对匹配线段的长度,或取远图和近图匹配线段长度的均值,或者分别取远图、近图从属同一物体的角点的极坐标长度的均值。

步骤S12,把得到的长度或均值根据情景代入相对应的光学关系中进行求解,获得物距。情景指:单目相机在光学导轨上滑动的情景,或者三维相机情景。三维相机指:利用单目测距原理的体积小共虚轴便携三维相机。

在单目相机在光学导轨上滑动的情景中,

假设第一次成像时的物距为u,第二次成像时的物距为u+d;物体第一次成像时通过得到的长度值为h1,物体第二次成像时得到的长度值为h2;由于单目相机在两次成像时参数都保持不变,可得出根据光学成像关系得到的公式:

计算得到物距u。d在光学导轨中是可以直接读出得到的量,h1和h2都已经打印或读出,参数代入上式得到物距u。

在利用单目测距原理的体积小共虚轴三维相机情景中,

假设L1为50%反光镜中心与上镜头之间的距离,L2为全反镜中心与下镜头之间的距离;在第一镜头中的长度值为d1,在第二镜头中的长度值为d2;第一镜头光轴与第二镜头光轴之间距离h;物体与第一镜头的距离L’1;由于第一镜头和第二镜头具有完全相同的焦距和视角θ,根据光学成像关系得到的公式为:

计算得到物距L’1。L1和L2以及h都是已知量,d1和d2都已经打印或读出,参数代入上式得到物距L’1。

步骤S13,角点根据物体的轮廓进行分类或从属关系判别,按照角点从属关系,用物距代表物体离镜头的距离。其中物距指角点组成的线到镜头的距离。

图2中,各序号表示:第一镜头1;第二镜头2;分光镜3;全反镜4;目标物体5;第一镜头光轴与第二镜头光轴之间距离h 6;第一镜头光轴7;第二镜头光轴8。

以上实施例仅供说明本发明之用,而非对本发明的限制,有关技术领域的技术人员,在不脱离本发明的精神和范围的情况下,还可以作出各种变换或变型,因此所有等同的技术方案也应该属于本发明的范畴,应由各权利要求所限定。

9页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:一种基于目标识别神经网络的单目测距方法

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!