一种智能车双目视觉深度测量的递阶搜索方法

文档序号:1939464 发布日期:2021-12-07 浏览:16次 >En<

阅读说明:本技术 一种智能车双目视觉深度测量的递阶搜索方法 (Hierarchical search method for binocular vision depth measurement of intelligent vehicle ) 是由 白羚 李银国 周中奎 于 2021-09-23 设计创作,主要内容包括:本发明公开了一种智能车双目视觉深度测量的递阶搜索方法,通过标定智能车辅助驾驶系统中的车载嵌入式双目相机,无需特定安装条件和理想相机模型的极线校正,构造区域模板和相关系数函数,将采集时序对齐的左右立体图像对,进行区域模板卷积滤波位置的区域立体匹配,构造区域模板的定位点投影关系模型,利用递阶搜索方式,对区域级立体匹配寻优,可计算出深度测量值及三维空间坐标。实现了从全局看特征的显著性区域级立体匹配,无需复杂的像素点特征级的几何计算和非线性优化过程,冗余度低,有效克服了图像纹理特征不强,区域常规匹配可信度较低,限制图像质量的问题。(The invention discloses a hierarchical searching method for binocular vision depth measurement of an intelligent vehicle, which comprises the steps of calibrating a vehicle-mounted embedded binocular camera in an auxiliary driving system of the intelligent vehicle, constructing a region template and a correlation coefficient function without polar line correction of specific installation conditions and an ideal camera model, carrying out region stereo matching of convolution filtering positions of the region template on a left stereo image pair and a right stereo image pair with aligned acquisition time sequences, constructing a positioning point projection relation model of the region template, optimizing the region level stereo matching by utilizing a hierarchical searching mode, and calculating a depth measurement value and a three-dimensional space coordinate. The method has the advantages that the salient region level stereo matching of the features from the whole view is realized, the complicated geometric calculation and nonlinear optimization process of the pixel point feature level are not needed, the redundancy is low, and the problems of weak image texture features, low reliability of conventional region matching and image quality limitation are effectively solved.)

一种智能车双目视觉深度测量的递阶搜索方法

技术领域

本发明涉及图像处理技术领域,尤其涉及一种智能车双目视觉深度测量的递阶搜索算法。

背景技术

随着智能车环境感知和高级辅助驾驶系统的技术发展和产品应用,对智能车周围进行自主的、快速的和低成本的环境感知和目标测距是保证辅助驾驶系统自动化的基本要求,其中最基础的基于深度相机的双目视觉技术被广泛应用于自主物流车、机器人避障、智能车辅助驾驶等智能家居及交通运输领域。其技术融合了计算机视觉、立体几何、图像处理等多个方面。随着移动通信网络的高速发展,智能车环境感知产生了倒车影像、定位与构图、环境场景三维重建、路径规划等等与环境深度测量技术密切相关的技术应用。

目前基于双目相机的计算机双目立体视觉深度估计方法是现有低成本辅助驾驶视觉方案,是机器人定位与构图的深度测量技术的主流方向,例如基于双目视差分析和双目图像特征点提取、匹配、三角测量、深度恢复的深度估计方法,这些方法模拟人眼立体视觉并通过计算机视觉立体几何的计算方法使得深度信息的测量精度相对较高。但是基于双目视差分析和传统特征点提取的双目深度估计方法,采用图像像素级特征点进行深度三维测量,限制为理想双目相机模型,即存在极线约束的成像方式,对弱纹理区域的特征显著性不强,常规特征灰度匹配的可信度较低,使得整个方法冗余度较大,图像质量局限性较大。

发明内容

本发明的目的在于提供一种智能车双目视觉深度测量的递阶搜索方法,旨在解决现有技术中基于双目视差分析和传统特征点提取的双目深度估计方法,采用图像像素级特征点进行深度三维测量,存在极线约束的成像方式,对弱纹理区域的特征显著性不强,常规特征灰度匹配的可信度较低,使得整个方法冗余度较大,图像质量局限性较大的技术问题。

为实现上述目的,本发明采用的一种智能车双目视觉深度测量的递阶搜索方法,包括如下步骤:

初始化双目相机模型的条件设定和标定;

构建双目相机采集图像数据的区域模板和初始化相关系数;

构建左右图像中对应区域模板的定位点投影关系模型;

对双目区域模板立体匹配和递阶搜索,得到最佳区域立体匹配的深度测量值;

基于最佳区域立体匹配的深度测量值,计算三维空间坐标。

其中,初始双化目相机模型的条件设定和标定的步骤包括:

设定双目相机两种安装条件;

标定双目相机的内参和外参,得到二维图像到三维世界的投影矩阵。

其中,设定双目相机两种安装条件的步骤包括:

安装的双目左右相机同型号即内参相同,横向平行安装;

安装的双目左右相机不同型号即内参不相同,无须平行安装即立体校正。

其中,标定双目相机的内参和外参,得到二维图像到三维世界的投影矩阵的步骤中:

利用单目相机标定法或者双目相机标定法,分别标定计算出左相机模型和右相机模型相对于世界坐标系的投影矩阵。

其中,构建双目相机采集图像数据的区域模板和初始化相关系数的步骤包括:

像平面区域模板的定义和初始化构建;

左右区域模板的相关系数的计算和初始化。

其中,像平面区域模板的定义和初始化构建的步骤中:

定义左右相机采集图像数据上的块状区域为区域模板,其包含一个定位点,一个核心区域,一个核心区域的边缘区域,定位点为区域模板核心区域的左上角位置的像素点,即核心区域的初始点;

初始化构建一个像素为0的区域模板。

其中,构建左右图像中对应区域模板的定位点投影关系模型的步骤包括:

分解左右相机模型中计算的投影矩阵;

计算投影矩阵中分解出的联合常数矩阵系数;

初始化左图中的定位点,计算所对应的右图中的落点定位点的轨迹。

其中,双目区域模板的立体匹配和递阶搜索的步骤包括:

采集左右相机同一时刻的左右成对的立体图像,初始化区域模板起始定位点;

进行左右图对应区域模板位置的递阶搜索和立体匹配,计算相关系数;

判断相关性最大的右图区域模板作为最优立体匹配结果,并计算深度估计测量值。

其中,采集左右相机同一时刻的左右成对的立体图像,初始化区域模板起始定位点的步骤包括:

双目相机同时采集视频序列,提取校准对齐后的同一时刻间隔帧的左右图像数据形成左右成对的立体图像;

初始化左图的区域模板的定位点从左图的左上角像素点开始按从左到右,从上到下的滑动顺序计算。

其中,进行左右图对应区域模板位置的递阶搜索和立体匹配,计算相关系数的步骤包括:

将初始化的左相机图像像平面的区域模板在当前定位点处开始计算,并设定计算步长即滑动和条件;

将当前左图区域模板位置的区域做卷积滤波,定位点的深度预估计的先验值和区域模板定位点代入投影关系模型;

计算得出对应右相机图像像平面的估计匹配的区域模板的位置,即定位点位置;

以当前左图区域模板位置的定位点所估计深度先验值的对应三维世界点看作起始计算第一起点,选取定量点作为基本搜索点集;

根据投影关系模型,得到立体匹配对应的右图区域模板的定位点集;

计算当前左图对应区域模板的区域与右图估计立体匹配的区域模板位置的区域相关系数,得到相关系数集;

判断相关性最大的右图区域模板作为最优立体匹配结果并计算深度估计测量值。

本发明的有益效果为:通过标定智能车辅助驾驶系统中的车载嵌入式双目相机,无需特定安装条件和理想相机模型的极线校正,构造区域模板和相关系数函数,将采集时序对齐的左右立体图像对,进行区域模板卷积滤波位置的区域立体匹配,构造区域模板的定位点投影关系模型,利用递阶搜索方式,对区域级立体匹配寻优,可计算出深度测量值及三维空间坐标。实现了从全局看特征的显著性区域级立体匹配,无需复杂的像素点特征级的几何计算和非线性优化过程,冗余度低,有效克服了图像纹理特征不强,区域常规匹配可信度较低,限制图像质量的问题,提供了智能车环境场景三维重建、倒车影像、定位与构图、路径规划的辅助驾驶系统的基础。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明的智能车双目视觉深度测量的递阶搜索方法的步骤流程图。

图2是本发明的左右区域模板的组成示意图。

图3是本发明的基于区域立体匹配的投影关系的右图定位点轨迹直线示意图。

具体实施方式

下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。

请参阅图1至图3,本发明提供了一种智能车双目视觉深度测量的递阶搜索方法,包括如下步骤:

S1:初始化双目相机模型的条件设定和标定;

S2:构建双目相机采集图像数据的区域模板和初始化相关系数;

S3:构建左右图像中对应区域模板的定位点投影关系模型;

S4:对双目区域模板立体匹配和递阶搜索,得到最佳区域立体匹配的深度测量值;

S5:基于最佳区域立体匹配的深度测量值,计算三维空间坐标。

其中,初始双化目相机模型的条件设定和标定的步骤包括:

设定双目相机两种安装条件;

标定双目相机的内参和外参,得到二维图像到三维世界的投影矩阵。

进一步的,设定双目相机两种安装条件的步骤包括:

安装的双目左右相机同型号即内参相同,横向平行安装;

安装的双目左右相机不同型号即内参不相同,无须平行安装即立体校正。

具体的,安装双目左右相机同型号即内参相同,按世界坐标系x轴即横向平行安装,基线为B,则左右相机的图像上的像素点的像平面上的对应关系计算得出:

(u(1),v(1))为左相机采集图像数据上的像素点在像平面坐标系上的坐标位置,(u(2),v(2))为右相机采集图像数据上的像素点在像平面坐标系上的坐标位置,d(1)为左相机(u(1),v(1))对应三维世界的三维空间点的深度信息,为相机内参矩阵中x方向的尺度因子,其中f为焦距,Sx为图像像素块在x方向上的物理尺寸;

内参矩阵为:

为相机内参矩阵中y方向的尺度因子,其中f为焦距,Sy为图像像素块在y方向上的物理尺寸;

安装双目左右相机不同型号即内参不同,安装无需严格平行即不需立体校正。

进一步的,标定双目相机的内参和外参,得到二维图像到三维世界的投影矩阵的步骤中:

利用单目相机标定法或者双目相机标定法,分别标定计算出左相机模型和右相机模型相对于世界坐标系的投影矩阵。

具体的,利用单目相机标定法或者双目相机标定法,分别标定计算出左相机模型和右相机模型相对于世界坐标系的投影矩阵:

其中d(2)为右相机(u(2),v(2))对应三维世界的三维空间点的深度信息,M(1)为左相机到三维世界坐标系的投影矩阵,M(2)为右相机到三维世界坐标系的投影矩阵,这里值得注意的是,两个投影矩阵均为对应相机模型的内参乘以外参组成,且其中内参是标定结果中所谓内参矩阵的逆矩阵。

其中,构建双目相机采集图像数据的区域模板和初始化相关系数的步骤包括:

像平面区域模板的定义和初始化构建;

左右区域模板的相关系数的计算和初始化。

进一步的,像平面区域模板的定义和初始化构建的步骤中:

定义左右相机采集图像数据上的块状区域为区域模板,其包含一个定位点,一个核心区域,一个核心区域的边缘区域,定位点为区域模板核心区域的左上角位置的像素点,即核心区域的初始点;

初始化构建一个像素为0的区域模板。

具体的,定义左右相机采集图像数据上的块状区域为区域模板,其包含一个定位点,一个n×n的核心区域,和一个宽度为m的扩展边界即核心区域的边缘区域,而定位点则为区域模板核心区域的左上角位置的像素点,即核心区域的初始点,也可称之为标志点;

初始化构建一个像素为0的区域模板,宽度为n+2×m。

进一步的,左右区域模板的相关系数的计算和初始化的步骤中:

初始化左右相机同一时刻采集的左右图像数据中所包含的等宽度的左区域模板和右区域模板的定位点、颜色参数、核心区域宽度、扩展边界;

初始化左右区域模板的最小平均误差相关系数;

初始化左右区域模板的归一化平均误差相关系数;

初始化左右区域模板的压缩余弦距离相关系数。

具体的,左右相机同一时刻采集的左右图像数据中所包含的等宽度的左区域模板的定位点为P(u,v),对应颜色参数为w(u,v),右区域模板的定位点为Q(x,y),对应颜色参数为f(x,y),两个区域模板的核心区域宽度均为n,扩展边界均为m;

初始化左右区域模板的最小平均误差相关系数:

其中i,j分别为区域模板对应行像素和列像素标签的循环计算的当前标签,即为0到N-1的顺序数值;

上式为左右区域模板中所有对应左右像素点的值之差的平均值,范围在0-255之间,Mad值越小,则左右图像中对应区域模板位置的相关性就越大,Mad值越大,则左右图像中对应区域模板位置的相关性就越小;计算相对的局部最小值即可,即Mad (min),特别地,当左右区域模板对应图像完全一致时,Mad=0;

初始化左右区域模板的归一化平均误差相关系数:

上式中分别为左右区域模板对应图像位置的总像素的均值,C的阈值范围在0-1之间,值越大,左右图像中对应区域模板位置的相关性就越大,值越小,左右图像中对应区域模板位置的相关性就越小;

初始化左右区域模板的压缩余弦距离相关系数:

取左相机采集的左图区域模板u方向和v方向的压缩投影所得的子向量wu和wv分别为:

同理,取左相机采集的左图区域模板x方向和y方向的压缩投影所得的子向量wu和wv分别为:

压缩投影的余弦距离相关系数为:

上式为矢量(wu,wv)T和(fx,fy)T之间的夹角余弦距离,两个2N维的矢量夹角余弦值的阈值范围为0-1之间,值越大,左右图像中对应区域模板位置的相关性就越大,值越小,左右图像中对应区域模板位置的相关性就越小。

进一步的,构建左右图像中对应区域模板的定位点投影关系模型的步骤包括:

分解左右相机模型中计算的投影矩阵;

计算投影矩阵中分解出的联合常数矩阵系数;

初始化左图中的定位点,计算所对应的右图中的落点定位点的轨迹。

具体的,将S1中左右相机模型中计算的投影矩阵的M(1)分解为:

计算投影矩阵中分解出的联合常数矩阵系数:

初始化一左图中的定位点P(u,v)计算所对应的右图中的落点定位点Q(x,y):

上式说明已知一先验估计的左图像平面上的区域模板定位点P(u,v)及对应三维世界空间点(X,Y,Z)在左相机上的深度测量估计值d(1),则可估计计算出对应的在右图像平面上的区域模板定位点Q(x,y),且P(u,v)到Q(x,y)为二维立体几何中的透视变换计算关系;

当前左图像平面区域模板定位点不变量P(u,v),其对应尺度未知的深度估计为未知变化量时,则上式表示为右图像平面上的对应立体匹配的区域模板的定位点Q(x,y)的轨迹为一条直线。

其中,对双目区域模板立体匹配和递阶搜索,得到最佳区域立体匹配的深度测量值的步骤包括:

采集左右相机同一时刻的左右成对的立体图像,初始化区域模板起始定位点;

进行左右图对应区域模板位置的递阶搜索和立体匹配,计算相关系数。

判断相关性最大的右图区域模板作为最优立体匹配结果,并计算深度估计测量值。

进一步的,采集左右相机同一时刻的左右成对的立体图像,初始化区域模板起始定位点的步骤包括:

双目相机同时采集视频序列,提取校准对齐后的同一时刻间隔帧的左右图像数据形成左右成对的立体图像;

初始化左图的区域模板的定位点从左图的左上角像素点开始按从左到右,从上到下的滑动顺序计算。

进一步的,进行左右图对应区域模板位置的递阶搜索和立体匹配,计算相关系数的步骤包括:

将初始化的左相机图像像平面的区域模板在当前定位点处开始计算,并设定计算步长即滑动和条件;

将当前左图区域模板位置的区域做卷积滤波,定位点的深度预估计的先验值和区域模板定位点代入投影关系模型;

计算得出对应右相机图像像平面的估计匹配的区域模板的位置,即定位点位置;

以当前左图区域模板位置的定位点所估计深度先验值的对应三维世界点看作起始计算第一起点,选取定量点作为基本搜索点集;

根据投影关系模型,得到立体匹配对应的右图区域模板的定位点集;

计算当前左图对应区域模板的区域与右图估计立体匹配的区域模板位置的区域相关系数,得到相关系数集。

进一步的,判断相关性最大的右图区域模板作为最优立体匹配结果并计算深度估计测量值的步骤包括:

若相关系数集符合预设条件,则判定左定位点与右定位点的区域模板所对应的左右图区域实现左右区域立体匹配;

若不满足预设条件,则扩大搜索范围,增加对应预测深度估计值的定位点,更新点集;

然后根据新的点集中,计算新的相关系数集,跳转至以当前左图区域模板位置的定位点所估计深度先验值的对应三维世界点看作起始计算第一起点,选取一定点作为基本搜索点集的步骤,否则,进行下一步;

若扩大搜索范围后仍不满足预设条件,则进行相关系数的极小值抑制,达不到最小可信度,则判定该左右区域立体匹配失败;

若相关系数集中存在最大值,但不是单峰分布,则以区域模板的核心区域为种子区域,以扩展边界的边缘区域递阶增长,即更新区域模板的相关函数;

若区域模板核心区域的扩展边界达到最大值时,仍不满足预设条件,则此时判定左右区域立体匹配无效;

若左右相机安装条件属于同型且平行安装时,则递阶搜索计算可简化,左右相机的图像上的像素点的像平面上的对应关系和投影矩阵简化更新;

若存在最优立体匹配,则输出测量的深度值,若不存在,则区域模板按滑动步长更新位置,进行下一个左图区域模板位置的区域立体匹配和深度,即跳转至进行左右图对应区域模板位置的递阶搜索和立体匹配,计算相关系数的步骤中;

若计算得出的对应右图区域模板位置的定位点越界,即不在右图像平面坐标上,则更新区域模板,尺寸按递阶塔式分解区域模板,s阶分解至0阶时,即区域模板退化成像素点,跳转至进行左右图对应区域模板位置的递阶搜索和立体匹配,计算相关系数的步骤中;

若滑动步长未至左图右边界和下边界,则区域模板按滑动步长更新位置,跳转至进行左右图对应区域模板位置的递阶搜索和立体匹配,计算相关系数的步骤中,否则,输出所有最优立体匹配和测量的深度值,停止计算。

具体的,将初始化的左相机图像像平面的区域模板Mask(P(u,v),n·m)在当前定位点(i,j)处开始计算,计算步长即滑动为n,条件设定为i+n<imagewidth

将当前左图区域模板位置的区域Mask(P(u,v),n·m)i,j做卷积滤波,定位点的深度预估计的先验值和区域模板定位点P(u,v)代入S3步骤中的投影关系模型;

计算得出对应右相机图像像平面的估计匹配的区域模板Mask′(Q(x0,y0),n,m)的位置,即定位点位置:

d0初始取深度d0为目标区域性深度先验估计值;

以当前左图区域模板位置的定位点所估计深度先验值d0的对应三维世界点看作起始计算第一起点,选取2k+1个点作为基本搜索点集:

di=d0±i·Δd

Δd为搜索步长,实例中k值选取为2;

根据S2步骤中的投影关系模型,得到2k+1个立体匹配对应的右图区域模板的定位点集:

计算当前左图对应区域模板的区域Mask(P(u,v),n·m)i,j与右图估计立体匹配的区域模板位置的区域Mask′(Q(xi,yi),n,m)的相关系数C(P(u,v),Q(xi,yi),n,m),得到相关系数集C(xi,yi)=Ci(i=0,±1,…k);

若预设条件满足,即C-k,C-k+1,…C0,C1,…Ck的分布存在单峰分布,在最大值点有且|C(x*,y*)|δ,δ为可接受的可信度阈值,则判定定位点P(u,v)与定位点Q(x*,y*)的区域模板所对应的左右图区域实现左右区域立体匹配;

相应地,区域Mask(P(u,v),n,m)i,j与Mask′(Q(x*,y*),n,m)中所有像素点按位匹配,深度值按区域级深度di *=d*,且要求为Ci的平均值;

若不满足上述预设条件,则扩大搜索范围,增加对应预测深度估计值为dk+1,…dK的点,更新第点集,K为最大搜索范围的下标,使得dK不超过最大深度值;

然后根据新的点集中,计算新的C-k,…C0,…Ck,跳转至以当前左图区域模板位置的定位点所估计深度先验值d0的对应三维世界点看作起始计算第一起点,选取2k+1个点作为基本搜索点集的步骤,否则,进行下一步;

若扩大搜索范围后仍不满足预设条件,则进行C*的极小值抑制,即|C*|<δ,达不到最小可信度,则判定该左右区域立体匹配失败;

若相关系数集中{Ci}存在最大值|C*|δ,但不是单峰分布,例如存在多个峰值或者为平顶型分布,此时最优立体匹配不够明显,说明该区域模板所在位置为图像纹理细节较弱的区域,例如天空等纯色区域中,则以区域模板的核心区域为种子区域,以扩展边界的边缘区域按add宽度值递阶增长,即更新区域模板的相关函数C(P(u,v),Q(x*,y*),n,(m+add))i,j,例如,add可取2,则区域模板尺寸宽为n+2(m+add);

若m+add达到最大值mmax时,仍不满足预设条件,则此时判定左右区域立体匹配无效;

若左右相机安装条件属于同型且平行安装时,则上述计算可简化,即在S1中的相机模型已标定完成的条件下,左右相机的图像上的像素点的像平面上的对应关系中的可由以下求得:

则S3中的投影模型中的投影矩阵可更新简化为:

若存在最优立体匹配,则输出测量的深度值,若不存在,则区域模板按滑动步长n更新位置,进行下一个左图区域模板位置的区域立体匹配和深度,即跳转至进行左右图对应区域模板位置的递阶搜索和立体匹配,计算相关系数的步骤中;

若计算得出的对应右图区域模板位置的定位点越界,即不在右图像平面坐标上,则更新区域模板,按尺寸的递阶塔式分解区域模板,s阶分解至0阶时,即区域模板退化成像素点,跳转至进行左右图对应区域模板位置的递阶搜索和立体匹配,计算相关系数的步骤中;

若i,j按滑动步长未至左图右边界和下边界,则更新则区域模板按滑动步长n更新位置,则跳转至进行左右图对应区域模板位置的递阶搜索和立体匹配,计算相关系数的步骤中,否则,输出所有最优立体匹配和测量的深度值,停止计算。

进一步的,基于最佳区域立体匹配的深度测量,计算三维空间坐标的步骤包括:

根据最优立体匹配结果和深度测量,计算三维空间坐标。

具体的,根据S4步骤中的输出的最优立体匹配结果和深度测量,计算三维空间坐标:

其中(u,v)属于区域模板中核心区域的像素坐标。

本发明通过标定智能车辅助驾驶系统中的车载嵌入式双目相机,无需特定安装条件和理想相机模型的极线校正,构造区域模板和相关系数函数,将采集时序对齐的左右立体图像对,进行区域模板卷积滤波位置的区域立体匹配,构造区域模板的定位点投影关系模型,利用递阶搜索方式,对立体匹配寻优,可计算出深度测量值及三维空间坐标。实现了从全局看特征的显著性区域级立体匹配,无需复杂的像素点特征级的几何计算和非线性优化过程,冗余度低,有效克服了图像纹理特征不强,区域常规匹配可信度较低,限制图像质量的问题,提供了智能车环境场景三维重建、倒车影像、定位与构图、路径规划的辅助驾驶系统的基础。

以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

15页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:一种人工智能量体系统及方法

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!