一种图像处理方法及装置

文档序号:1695347 发布日期:2019-12-10 浏览:31次 >En<

阅读说明:本技术 一种图像处理方法及装置 (Image processing method and device ) 是由 柯政遠 于 2018-05-31 设计创作,主要内容包括:本申请实施例公开了一种图像处理方法及装置,该方法包括:图像处理装置在第一图像中获取第一区域;并在第二图像中获取第二区域;再计算第一区域在第一图像中的位置与第二区域在第二图像中的位置之间的水平位移差,根据水平位移差确定目标物体与拍摄设备之间的距离;其中,第一图像为拍摄设备的第一摄像机拍摄的包括目标物体的图像,第二图像为拍摄设备中的第二摄像机拍摄的包括目标物体的图像。本申请实施例利用第一区域在第一图像上的位置与第二区域在第二图像上的位置之间的水平位移差来代表该第一图像和该第二图像各对应像素点的水平位移差,从而减少了图像的运算量,提高了工作效率。(The embodiment of the application discloses an image processing method and device, wherein the method comprises the following steps: the image processing device acquires a first area in a first image; acquiring a second area in the second image; then calculating the horizontal displacement difference between the position of the first area in the first image and the position of the second area in the second image, and determining the distance between the target object and the shooting equipment according to the horizontal displacement difference; the first image is an image which is shot by a first camera of the shooting device and comprises a target object, and the second image is an image which is shot by a second camera of the shooting device and comprises the target object. According to the method and the device, the horizontal displacement difference between the position of the first area on the first image and the position of the second area on the second image is used for representing the horizontal displacement difference of corresponding pixel points of the first image and the second image, so that the calculation amount of the images is reduced, and the working efficiency is improved.)

一种图像处理方法及装置

技术领域

本申请涉及计算机技术领域,尤其涉及一种图像处理方法及装置。

背景技术

随着计算机技术的发展,增强现实(augmented reality,AR)和/或虚拟现实(virtual reality,VR)应用也越来越普遍。在AR和/或VR的应用中,物体深度距离是一个非常重要的参数。物体深度距离指的是待测物与拍摄设备之间的距离。

现有技术中,物体深度距离的测量方式主要为:通过拍摄设备拍摄的两张图像(一张图像为拍摄设备中右方摄像机拍摄,另一张图像为拍摄设备中左方摄像机拍摄,右方摄像机和左方摄像机位于一条水平线上)的一些相关点去进行比对,计算出图上每个像素点的视差,形成一张视差深度图,利用该视差深度图去做深度计算,得到物体深度距离。例如,对拍摄设备中左方摄像机拍摄的图像1与右方摄像机拍摄的图像2进行立体匹配,得到图像1和图像2各对应像素点之间的相对水平位移关系。根据该相对水平位移关系得到视差深度图。由于视差和物体深度距离成反比关系,利用该视差深度图可估算物体深度距离。然而,在计算物体深度距离时,需计算整张图中各对应像素点的视差值,图像运算量大,工作效率低。

发明内容

本申请实施例提供一种图像处理方法及装置,可以减少图像的运算量,提高工作效率。

第一方面,本申请实施例提供一种图像处理方法,该方法包括:图像处理装置在第一图像中获取第一区域,该第一区域为该第一图像中目标物体对应的图像区域。再在第二图像中获取第二区域。其中,该第二区域与该第一区域的形状和大小相同,且该第二区域与该第一区域的像素差异小于像素差异阈值,该第二区域为该第二图像中该目标物体对应的图像区域。图像处理装置计算上述第一区域在上述第一图像中的位置与上述第二区域在上述第二图像中的位置之间的水平位移差。其中,该水平位移差用于表示该第一区域与该第二区域之间的视差。根据该水平位移差可以确定上述目标物体与拍摄设备之间的距离。其中,上述第一图像为上述拍摄设备的第一摄像机拍摄的图像,上述第二图像为上述拍摄设备的第二摄像机拍摄的图像,该第一摄像机和该第二摄像机位于一条水平线上。由于第一区域为第一图像中目标物体对应的图像区域,第二区域为第二图像中该目标物体对应的图像区域。本申请实施例利用目标物体在第一图像上的位置与该目标物体在第二图像上的位置之间的水平位移差来代表该第一图像和该第二图像之间的水平位移差,而不需要计算该第一图像和该第二图像各对应像素点的水平位移差,从而减少了运算量,提高了工作效率。

结合第一方面,在一种可能的实施方式中,图像处理装置可以对上述第一图像进行图像分割后得到上述第一区域。常用的图像分割技术包括:基于阈值的图像分割、基于语义的图像分割、基于边缘检测的图像分割等等。由于图像分割技术可以较好地分割出前景区域(图像中目标物体对应的图像区域)和背景区域(图像减去前景区域所得的图像区域),故利用图像分割技术得到的第一区域更为准确,可以提高图像处理的精确度。

结合第一方面,在一种可能的实施方式中,图像处理装置在进行图像分割时,可以将上述第一图像中的多个目标像素点所共同组成的区域确定为上述第一区域。其中,目标像素点的特征值在目标阈值范围内。由于基于阈值分割的图像分割方法计算简单,运算效率高,故不仅可以提高图像处理的精确度,还可以提高图像处理的运算效率。

结合第一方面,在一种可能的实施方式中,图像处理装置在将上述第一图像中的至少两个目标像素点所共同组成的区域确定为上述第一区域之前,还可以确定上述第一图像中上述目标物体的参考区域。再获取该参考区域中多个像素点的特征值。根据该参考区域中多个像素点的特征值,确定用于图像分割的目标阈值范围。由于图像分割后的第一区域为第一图像中目标物体对应的图像区域,而用于图像分割的阈值范围由该目标物体的参考区域中像素点的特征值得来,故可以提高图像分割的精度,得到更完整的第一区域,从而进一步提高图像处理的精度。

结合第一方面,在一种可能的实施方式中,上述特征值可以包括色彩值、灰度值或深度参考值。其中,该深度参考值用于表示像素点与拍摄设备之间的参考距离。本申请实施例中的第一图像无论是彩色图像还是灰度图像,都可采用基于阈值的图像分割方法对第一图像进行分割,得到第一图像中目标物体对应的第一区域,在提高运算效率的同时可以提供更完备的图像处理方法。

结合第一方面,在一种可能的实施方式中,图像处理装置在第二图像中获取第二区域时,可以在该第二图像中获取一个或多个遮罩区域,该多个遮罩区域中的每个遮罩区域与上述第一区域的形状和大小相同。再根据该每个遮罩区域分别与上述第一区域的像素差异,将与上述第一区域的像素差异小于像素差异阈值的遮罩区域确定为上述第二区域。本申请实施例通过在一个或多个遮罩区域中查找与上述第一区域的像素差异小于像素差异阈值的遮罩区域,从而可以在第二图像中确定第二区域。

结合第一方面,在一种可能的实施方式中,图像处理装置在上述第二图像中获取一个或多个遮罩区域时,可以根据上述第一区域确定与上述第一区域对应的遮罩窗,并将该遮罩窗的上下边缘分别与上述第二图像的上下边缘齐平后在第二图像中进行平移,得到上述第二图像中的一个或多个遮罩区域。其中,该遮罩窗与该第一图像的大小和形状均相同,该遮罩区域与该第一区域的形状和大小均相同。由于遮罩窗的上下边缘是与左视图的上下边缘齐平后再进行平移。因此,可以减少第二图像中遮罩区域的数量,从而减少了运算量,提高了工作效率。

结合第一方面,在一种可能的实施方式中,每个遮罩区域分别与上述第一区域的像素差异可以为该各个遮罩区域中各个像素点与该第一区域中对应像素点的色彩值的色彩差异总和。当第一图像和第二图像均为彩色图像时,图像处理装置通过计算该第一区域与该遮罩区域上各对应像素点的色彩值的色彩差异来确定像素差异,将与该第一区域的色彩差异总和小于色彩差异阈值的遮罩区域确定为第二区域。提供了更加完善的图像处理方法。

结合第一方面,在一种可能的实施方式中,每个遮罩区域分别与上述第一区域的像素差异可以为该各个遮罩区域中各个像素点与该第一区域中对应像素点的灰度值的灰度差异总和。当第一图像和第二图像均为灰度图像时,图像处理装置通过计算该第一区域与该遮罩区域上各对应像素点的灰度值的灰度差异来确定像素差异,将与该第一区域的灰度差异总和小于灰度差异阈值的遮罩区域确定为第二区域。说明本申请实施例的图像处理方法仍适用于灰度图像,应用范围广,提供了更加完善的图像处理方法。

结合第一方面,在一种可能的实施方式中,若该第一图像为彩色图像,而第二图像为灰度图像。图像处理装置在根据每个遮罩区域分别与该第一区域的像素差异,将与该第一区域像素差异小于像素差异阈值的遮罩区域确定为第二区域之前,图像处理装置还可以将该第一区域中各个像素点的色彩值转换得到该各个像素点的灰度值。说明本申请实施例的图像处理方法还适用于第一图像为彩色图像,第二图像为灰度图像的情况。进一步扩大了应用范围,提供了更加完善的图像处理方法。

结合第一方面,在一种可能的实施方式中,图像处理装置可以在确定上述第二区域时,可以将与上述第一区域的像素差异最小的遮罩区域确定为上述第二区域。本申请实施例通过在一个或多个遮罩区域中查找与上述第一区域的像素差异最小的遮罩区域作为第二区域,得到的第二区域与第一区域的像素差异最小且更准确,从而可以提高图像处理的精确度。

结合第一方面,在一种可能的实施方式中,图像处理装置根据水平位移差确定该目标物体与拍摄设备之间的距离时,可以获取拍摄该第一图像和/或该第二图像时的拍摄焦距。再获取该第一摄像机与该第二摄像机之间的间隔距离。再根据该拍摄焦距、该间隔距离和该水平位移差确定该目标物体与该拍摄设备之间的距离。

结合第一方面,在一种可能的实施方式中,图像处理装置计算该拍摄焦距与该间隔距离的乘积。将该拍摄焦距与该间隔距离的乘积除以该水平位移差所得的商确定为该目标物体与该拍摄设备之间的距离。本申请实施例利用水平位移差与距离成反比的关系,计算目标物体与拍摄设备之间的距离,计算简单,运算效率高。

第二方面,本申请实施例提供一种图像处理装置,该图像处理装置具有实现上述第一方面的图像处理方法的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。

结合第二方面,在一种可能的实施方式中,该图像处理装置包括第一获取模块、第二获取模块、计算模块以及确定模块。其中,该第一获取模块,用于在第一图像中获取第一区域,该第一区域为该第一图像中目标物体对应的图像区域。该第二获取模块,用于在第二图像中获取第二区域。该第二区域与该第一区域的形状和大小相同,且该第二区域与该第一区域的像素差异小于像素差异阈值,该第二区域为该第二图像中该目标物体对应的图像区域。该计算模块,用于计算该第一获取模块获取的该第一区域在该第一图像中的位置与该第二获取模块确定的该第二区域在该第二图像中的位置之间的水平位移差,该水平位移差用于表示该第一区域与该第二区域之间的视差。该确定模块,用于根据该计算模块计算的该水平位移差确定该目标物体与拍摄设备之间的距离。其中,该第一图像为该拍摄设备的第一摄像机拍摄的图像,该第二图像为该拍摄设备的第二摄像机拍摄的图像,该第一摄像机和该第二摄像机位于一条水平线上。

第三方面,本申请实施例提供另一种图像处理装置,该图像处理装置包括处理器和存储器,该处理器和存储器相互连接,其中,该存储器用于存储程序代码;

该处理器用于调用该程序代码,执行以下操作:

在第一图像中获取第一区域,在第二图像中获取第二区域。其中,该第一区域为该第一图像中目标物体对应的图像区域,该第二区域与该第一区域的形状和大小相同,且该第二区域与该第一区域的像素差异小于像素差异阈值,该第二区域为该第二图像中该目标物体对应的图像区域。计算上述第一区域在上述第一图像中的位置与上述第二区域在上述第二图像中的位置之间的水平位移差,该水平位移差用于表示该第一区域与该第二区域之间的视差。根据该水平位移差可以确定上述目标物体与拍摄设备之间的距离。其中,上述第一图像为上述拍摄设备的第一摄像机拍摄的图像,上述第二图像为上述拍摄设备的第二摄像机拍摄的图像,该第一摄像机和该第二摄像机位于一条水平线上。

第四方面,本申请的实施例提供一种计算机存储介质,用于储存为图像处理装置所用的计算机程序指令,其包含用于执行上述第一方面所涉及的程序。

实施本申请实施例,一方面,可以减少图像的运算量,提高工作效率。另一方面,可以提高图像处理的精确度,得到更为精确的物体深度距离。

附图说明

为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。

图1是同一场景中的右视图和左视图;

图2是三角原理的示意图;

图3是本申请实施例提供的一种图像处理方法的示意流程图;

图4是图像分割后第一区域的示意图;

图5A是一种在左视图上获得遮罩区域的示意图;

图5B是另一种在左视图上获得遮罩区域的示意图;

图5C是又一种在左视图上获得遮罩区域的示意图

图6A是一种水平位移差的示意图;

图6B是另一种水平位移差的示意图;

图6C是又一种水平位移差的示意图;

图7是本申请实施例提供的一种图像处理装置的结构示意图;

图8是本申请实施例提供的另一种图像处理装置的结构示意图。

具体实施方式

下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。

本申请实施例提供的图像处理方法可适用于物体深度测量的应用场景中。在一些可行的实施方式中,具体的深度测量为:首先利用立体匹配的方法对左右视图做匹配,找到拍摄场景中每个点分别在左视图和右视图上的投影点。该投影点在左右视图上表现为像素点。再利用三角原理计算左视图上各个投影点和右视图的对应投影点之间的相对水平位移,得到左视图或右视图上每个投影点(像素点)的相对水平位移生成的视差深度图。由于视差与深度距离成反比关系,利用该视差深度图可估算物体深度距离。其中,拍摄设备中由右方摄像机拍摄的图像为右视图,由左方摄像机拍摄的图像为左视图,左方摄像机和右方摄像机位于一条水平线上。例如,如图1所示,图1为同一场景中的右视图和左视图。由于拍摄设备中右方摄像机与左方摄像机处于同一水平直线上且右方摄像机和左方摄像机之间存在固定的距离,所以右视图和左视图之间存在一个轻微的水平差距。立体匹配可以包括局部立体匹配和全局立体匹配。如图2所示,图2是三角原理的示意图。以拍摄场景中任意一个场景点为例,如P表示拍摄场景中一个场景点。ZP表示点P与拍摄设备之间的距离,即场景点P的深度距离,f表示拍摄设备中左方摄像机和/或右方摄像机的拍摄焦距。Pr表示点P在右视图上的投影点,Pl表示点P在左视图上的投影点。Ol表示拍摄设备中左方摄像机所在的位置点,Or表示拍摄设备中右方摄像机所在的位置点,Ol与Or的距离为B。πl表示左方摄像机最大的成像范围,πr表示右方摄像机最大的成像范围,其中πl=πr。Xl表示Pl距离左视图最左边的水平距离,Xr表示Pr距离右视图最左边的水平距离。相对水平位移d=|Xl-Xr|。由于ΔPPlPr与ΔPOlOr相似,可得:

其中,公式(1)化简得ZP=Bf/(Xl-Xr)=Bf/d。同理可得,可计算左或右视图上每个像素点的相对水平位移。物体深度距离 表示左或右视图上所有像素点的相对水平位移的均值。本申请实施方式中,一方面由于在进行物体深度测量时,是通过左视图上各个像素点和右视图的对应像素点的相对水平位移来估算物体深度距离。故需计算图像上每个像素点的相对水平位移,因此运算量大,工作效率低。另一方面,由于计算的是左或右视图上所有像素点的相对水平位移的均值,而物体深度距离表示待测物与拍摄设备之间的距离,用图像上所有像素点的相对水平位移的均值来代表物体所在区域的相对水平位移,会导致计算得到的物体深度距离不准确。

本申请实施例提供的图像处理方法可应用于具有图像处理功能的图像处理装置中,例如,智能手机、IPAD、台式电脑、笔记本电脑等等。本申请实施例的拍摄设备可以集成在图像处理装置上,也可以独立于图像处理装置存在。本申请实施例不做限定。

下面将结合图3至图8,对本申请实施例提供的图像处理方法及装置进行说明。

为便于更好地理解和实施本申请实施例的方案,本申请实施例所涉及的拍摄设备可以包括多个(这里指大于或等于2个)摄像机,将该拍摄设备中由右方摄像机拍摄的图像定义为右视图,将拍摄设备中由左方摄像机拍摄的图像定义为左视图,左方摄像机和右方摄像机位于一条水平线上。其中,本申请实施例提供的图像处理方法中的第一图像可以为右视图或左视图。若第一图像为右视图,第二图像则为左视图;若第一图像为左视图,第二图像则为右视图。由于拍摄设备中左方摄像机与右方摄像机的拍摄参数都相同,故左视图和右视图的尺寸大小、分辨率均相同。参见图3,图3是本申请实施例提供的一种图像处理方法的示意流程图。为便于描述,在图3所示的图像处理方法中,以第一图像为右视图为例来进行说明。如图3,本申请实施例提供的图像处理方法可包括步骤:

S101,图像处理装置在第一图像中获取第一区域。

其中,该第一区域可以为右视图中目标物体的轮廓所围成的图像区域,也可以为右视图中包含该目标物体轮廓的图像区域(例如包含该目标物体轮廓的规则几何形状区域),本申请实施例不做限定。

S102,图像处理装置在第二图像中获取第二区域。

其中,该第二区域和上述第一区域的形状和大小均相同,且该第二区域和上述第一区域的像素差异小于像素差异阈值,该第二区域可以为左视图中目标物体的轮廓所围成的图像区域,也可以为左视图中包含该目标物体轮廓的图像区域。

S103,图像处理装置计算第一区域在第一图像中的位置与第二区域在第二图像中的位置之间的水平位移差。

其中,因为拍摄设备中右方摄像机与左方摄像机处于一条水平直线上且右方摄像机和左方摄像机之间存在固定的距离,所以右视图和左视图之间存在一个轻微的水平差距,从而右视图中第一区域和左视图中的第二区域之间也存在一个轻微的水平差距(即水平位移差)。该水平位移差可以以像素点的形式表现,也可以以物理距离的形式表现。例如,水平位移差可以为30个像素点,也可以为0.2厘米。

S104,图像处理装置根据水平位移差确定目标物体与拍摄设备之间的距离。

本申请实施例中,对于上述步骤S101,可以有以下的一些可能的实现方式:

在一些可行的实施方式中,图像处理装置获取拍摄设备中由右方摄像机(指第一摄像机)拍摄的包括目标物体的右视图(指第一图像),并利用人工智能(artificialintelligence,AI)中的图像识别技术在右视图中识别出该目标物体,并在右视图上对该目标物体进行标记。图像处理装置可以将右视图中被标记的图像区域作为第一区域。可选的,由右方摄像机拍摄的目标物体完全在右视图中呈现。其中,该目标物体可为拍摄场景中的任一待测物。

在一些可行的实施方式中,图像处理装置可以利用图像分割技术对右视图进行图像分割后得到该第一区域。其中,图像分割技术可以包括基于阈值的图像分割、基于语义的图像分割、基于边缘检测的图像分割等等。由于图像分割技术可以较好地分割出前景区域(图像中目标物体对应的图像区域)和背景区域(图像减去前景区域所得的图像区域),故利用图像分割技术得到的第一区域较为准确,可以提高图像处理的精确度。

在一些可行的实施方式中,图像处理装置可以采用基于阈值的图像分割方法对右视图进行图像分割后得到该第一区域。具体地,图像处理装置可以获取用于图像分割的目标阈值范围,进而获取右视图中各个像素点的特征值,并可以将右视图中像素点的特征值在该目标阈值范围内的多个(这里指大于或等于2个)目标像素点所共同组成的区域,确定为该第一区域(前景区域)。进而将右视图中像素点的特征值在该目标阈值范围外的多个(这里指大于或等于2个)像素点所共同组成的区域作为背景区域。其中,由于图像中的像素点是有大小的,且像素点通常是正方形的,所以即使是位于一条线上的2个像素点也可以确定一个区域,这个区域可以为第一区域。第一区域可以为多个像素点所共同组成的区域,也可以为包含这多个像素点的最小连续区域。该目标阈值范围可以为用户预设的阈值范围,也可以为图像处理装置根据右视图的图像特征计算得到的阈值范围,其中,目标阈值范围可以为色彩值范围、灰度值范围或深度参考值范围,对应的像素点的特征值可以包括色彩值、灰度值或深度参考值。这里,色彩值可以是红(red)绿(green)蓝(blue)值,即RGB值,色彩值也可以是色彩空间值,即YCBCR值。例如,色彩值范围为189~205、灰度值范围为124~156等等。该深度参考值可为右视图中各个像素点到拍摄设备之间的距离,例如该深度参考值可为上述公式(1)中的ZP。若右视图为彩色图像,上述像素点的特征值可以包括色彩值和/或深度参考值。若右视图为灰度图像,则上述像素点的特征值可以包括灰度值和/或深度参考值。如图4所示,图4为图像分割后第一区域的示意图。假设右视图R为彩色图像,色彩值范围为189~205,将右视图中像素点的色彩值在189~205之外(色彩值小于189或色彩值大于205)的多个像素点所共同组成的区域确定为背景区域,将背景区域中所有像素点的色彩值全置为0,如图4中的黑色区域。将右视图中像素点的色彩值在189~205之间的多个目标像素点所共同组成的区域确定为第一区域,将第一区域的色彩值全置为255,如图4中的白色区域。本申请实施例中,由于基于阈值分割的图像分割方法计算简单,运算效率高,故不仅可以提高图像处理的精确度,还可以提高图像处理的运算效率。

在一些可行的实施方式中,该目标阈值范围的获取方式具体为:

1)图像处理装置确定右视图中该目标物体对应的参考区域。例如,图像处理装置可以利用模式识别、支持向量机等图像识别技术对右视图进行识别,在右视图中识别出该目标物体,并将右视图中识别出的该目标物体所占据的图像区域确定为参考区域,或者可以根据用户在右视图上的框选或点选操作确定的区域作为该目标物体对应的参考区域。其中,该参考区域用于反映该目标物体在右视图中的初步定位,如参考区域可以为右视图中比该目标物体轮廓大的图像区域,或右视图中比该目标物体轮廓小的图像区域,从而可以进一步更精确地确定右视图中该目标物体所在的图像区域,即第一区域。

2)图像处理装置在确定该目标物体对应的参考区域之后,获取该参考区域中多个(这里指大于或等于2个)像素点的特征值。例如,图像处理装置对上述获取到的该参考区域中的所有像素点进行采样,得到该参考区域中的多个采样点,并获取该多个采样点的特征值。图像处理装置也可以提取该参考区域中的所有特征点,并获取该参考区域中所有特征点的特征值。其中,该像素点的特征值可以包括色彩值、灰度值或深度参考值。该深度参考值可以用于表示各个像素点到拍摄设备之间的参考距离。

3)图像处理装置根据该参考区域中多个像素点的特征值,确定用于图像分割的目标阈值范围。例如,若右视图为彩色图像,图像处理装置获取参考区域中所有像素点的色彩值和深度参考值,并可以根据获取到的色彩值和深度参考值,计算该参考区域中所有像素点的色彩均值Cave、色彩标准差Cδ,深度均值Dave以及深度标准差Dδ。目标阈值范围可以为(Cave-Cδ)~(Cave+Cδ)和(Dave-Dδ)~(Dave+Dδ)。从而图像处理装置可以获取该第一图像中各个像素点的色彩值和深度参考值,并可以将该第一图像中像素点的色彩值在(Cave-Cδ)~(Cave+Cδ)范围内,且像素点的深度参考值在(Dave-Dδ)~(Dave+Dδ)范围内的所有像素点所共同组成的区域,确定为该第一区域。进而将右视图中像素点的色彩值在范围(Cave-Cδ)~(Cave+Cδ)外,和/或像素点的深度参考值在(Dave-Dδ)~(Dave+Dδ)范围外的所有像素点所共同组成的区域作为背景区域。本申请实施例中,图像处理装置通过先确定目标物体在第一图像上的参考区域,再根据参考区域中像素点的特征值,确定用于图像分割的目标阈值范围。一方面,不需要用户设定用于图像分割的阈值范围,减少了人工处理环节。另一方面,由于目标物体的参考区域为该目标物体在右视图上的大致区域,且用于图像分割的目标阈值范围由该目标物体在右视图上的大致区域中像素点的特征值得来,而图像分割得到的第一区域为该目标物体在右视图中较精确的图像区域,故可以提高图像分割的精度,得到更完整的第一区域,从而进一步提高图像处理的精度。

本申请实施例中,对于上述步骤S102,可以有以下的一些可能的实现方式:

在一些可行的实施方式中,图像处理装置可以采用图像分割或AI识别等方法在第二图像中获取第二区域。其中,该第二区域的获取方法可以与上述第一区域的获取方法相同,也可以不相同,本申请实施例不做限定。该像素差异阈值可以为用户自定义的,也可以为图像处理装置根据该第一图像和该第二图像的特征点确定的。例如,分别提取第一图像中目标物体对应的第一特征点和第二图像中与该第一特征点对应的第二特征点,计算第一特征点和第二特征点之间的像素差异,将该像素差异的均值作为像素差异阈值。

在一些可行的实施方式中,第二区域的获取方式具体可为:

1)根据上述获取到的第一区域,图像处理装置可以在左视图(指第二图像)中获取一个或多个遮罩区域。该多个遮罩区域中的每个遮罩区域与该第一区域的形状和大小都相同。左视图为拍摄设备中左方摄像机(指第二摄像机)拍摄的包括该目标物体的图像。可选的,由左方摄像机拍摄的目标物体完全在左视图中呈现。如图5A所示,图5A是一种在左视图上获得遮罩区域的示意图。其中,第一区域a1由右视图R得来,图像处理装置根据第一区域a1确定遮罩窗A1,具体可以为根据第一区域在右视图中的大小、形状以及位置,确定与该第一区域对应的遮罩窗,A1中斜杠区域为不透明区域,与a1对应的A1中的c1区域为透明区域,即遮罩窗A1中c1所在的位置与右视图R中a1所在的位置相同,且c1与a1的大小、形状均相同。将遮罩窗A1遮罩在左视图L上,左视图L透过遮罩窗A1中c1区域显示的区域即为遮罩区域b1,将遮罩窗A1在左视图L上移动,都能够得到不同的遮罩区域b1,遮罩区域b1与第一区域a1形状、大小都相同。遮罩窗A1可以在左视图L中左右移动,也可以在左视图L上下移动。遮罩窗A1在左视图L上移动时,可以每次移动固定数量的像素点,如每次移5个像素点或1个像素点等,也可以每次移动不同数量的像素点,如第一次移10个像素点,第二次移8个像素点等。

在一些可行的实施方式中,图像处理装置将该遮罩窗的上下边缘分别与左视图的上下边缘齐平后进行平移,得到左视图中的至少一个遮罩区域,同时图像处理装置还可以记录该至少一个遮罩区域中每个遮罩区域对应的遮罩窗在左视图上平移的像素点数量。如图5B所示,图像处理装置根据第一区域a1的大小、形状以及位置确定遮罩窗A2,从而确定遮罩窗A2的四个顶点,如图5B所示的顶点1,2,3,4。A2中斜杠区域为不透明区域,与a1对应的A2中的c1区域为透明区域。顶点1′,2′,3′,4′分别用于表示左视图L上的4个顶点。遮罩窗的上下边缘分别与左视图的上下边缘齐平即为:A2中1,2定点所确定的A2的上边缘与L的1′和2′所确定的L的上边缘在同一条直线上,以及A2中3,4定点所确定的A2的下边缘与L的3′和4′所确定的L的下边缘在同一条直线上。可以将遮罩窗A2中顶点2与左视图L中顶点1′对齐,且遮罩窗A2中顶点4与左视图L中顶点3′对齐,从此时开始将遮罩窗A2向右平移,从而在L上进行遮罩,在移动过程中将A2中的c1区域未完整遮罩在左视图L上显示的区域舍弃,并将左视图L透过c1区域显示的与a1大小、形状相同的区域作为遮罩区域b2。同理可以为将遮罩窗A2中顶点1与左视图L中顶点2′对齐,且遮罩窗A2中顶点3与左视图L中顶点4′对齐,从此时开始将遮罩窗A2向左平移,从而在L上进行遮罩,在移动过程中将A2中的c1区域未完整遮罩在左视图L上显示的区域舍弃,并将左视图L透过c1区域显示的与a1大小、形状相同的区域作为遮罩区域b2。在该实施方式中,由于拍摄设备中左方摄像机与右方摄像机处于同一水平线上,说明左方摄像机与右方摄像机的纵向位置相同,故目标物体在左视图和右视图中的纵向位置也相同,即目标物体在左视图和右视图中只存在水平差距,所以将遮罩窗的上下边缘分别与左视图的上下边缘齐平后再进行平移遮罩,可以减少左视图中遮罩区域的数量,从而减少了图像处理的运算量,提高工作效率。

在一些可行的实施方式中,如图5C所示,图5C是又一种在左视图上获得遮罩区域的示意图。其中,由于拍摄设备中右方摄像机拍摄的目标物体在右视图中偏左区域,左方摄像机拍摄的该目标物体在左视图中偏右区域。故图像处理装置可以将遮罩窗A3中的4个顶点分别与左视图L中的对应顶点对齐(即顶点1与顶点1′对齐,顶点2与顶点2′,顶点3与顶点3′对齐,顶点4与顶点4′对齐),从此时开始将遮罩窗A3向右平移,从而在L上进行遮罩,在移动过程中将A3中的c1区域未完整遮罩在左视图L上显示的区域舍弃,并将左视图L透过c1区域显示的与a1大小、形状相同的区域作为遮罩区域b3。

2)图像处理装置可以获取上述一个或多个遮罩区域中每个遮罩区域与上述第一区域的像素差异,从而将该一个或多个遮罩区域中与该第一区域的像素差异最小的遮罩区域确定为第二区域。其中,像素差异可以包括像素点之间的色彩或灰度差异。该第二区域可以为左视图中该目标物体对应的图像区域。例如,假设图像处理装置在左视图中共获取到200个遮罩区域,图像处理装置可以获取这200个遮罩区域中每个遮罩区域与第一区域的像素差异。将这200个遮罩区域中与该第一区域的像素差异最小的遮罩区域确定为第二区域。

在该实施方式中,由于是以第一区域作为参考去查找第二区域,使得第二区域和第一区域的形状和大小都相同,并且像素差异小于一个较小的像素差异阈值,排除了左视图中其他不是目标物体的图像区域给获取第二区域带来的干扰,从而保证了第一区域和第二区域的像素差异足够小,进而使得后续计算第一区域在右视图中的位置和第二区域在左视图中的位置之间的水平位移差更精确,得到的目标物体与拍摄设备之间的距离也更精确。

在一些可行的实施方式中,若右视图(指第一图像)和左视图(指第二图像)都为彩色图像,图像处理装置可以获取每个遮罩区域中各个像素点与该第一区域中对应像素点的色彩值的色彩差异总和,并将该每个遮罩区域中与该第一区域的色彩差异总和最小的遮罩区域确定为第二区域。例如,假设第70个遮罩区域包括A70,B70,C70,D70,E70这5个像素点。第一区域包括A′30,B′30,C′30,D′30,E′30这5个像素点。A70与A′30对应,B70与B′30对应,C70与C′30对应,D70与D′30对应,E70与E′30对应。图像处理装置可以分别计算第70个遮罩区域中A70,B70,C70,D70,E70这5个像素点与第一区域对应的5个像素点A′30,B′30,C′30,D′30,E′30的色彩值之间的色彩差异CdA、CdB、CdC、CdD以及CdE。其中,CdA可以为:

其中,公式(2)中RA可以表示A70这个像素点RGB色彩值中的红色分量,RA′可以表示A′30这个像素点RGB色彩值中的红色分量。GA可以表示A70这个像素点RGB色彩值中的绿色分量,GA′可以表示A′30这个像素点RGB色彩值中的绿色分量。BA可以表示A70这个像素点RGB色彩值中的蓝色分量,BA′可以表示A′30这个像素点RGB色彩值中的蓝色分量。CdB、CdC、CdD以及CdE可由CdA同理可得。图像处理装置可以计算每个遮罩区域与该第一区域的色彩值之间的色彩差异总和Cd=CdA+CdB+CdC+CdD+CdE,并将与该第一区域的色彩差异总和最小(Cd)min的遮罩区域确定为第二区域。本申请实施例中,若右视图和左视图均为彩色图像,图像处理装置通过计算第一区域与遮罩区域上像素点的RGB色彩分量来确定像素差异,提供了更加完善的图像处理方法。

在一些可行的实施方式中,若右视图(指第一图像)和左视图(指第二图像)都为灰度图像,图像处理装置可以获取每个遮罩区域中各个像素点与该第一区域中对应像素点的灰度值的灰度差异总和,并将该每个遮罩区域中与该第一区域的灰度差异总和最小的遮罩区域确定为第二区域。例如,假设第100个遮罩区域包括A100,B100,C100,D100,E100这5个像素点。第一区域包括A′30,B′30,C′30,D′30,E′30这5个像素点。A100与A′30对应,B100与B′30对应,C100与C′30对应,D100与D′30对应,E100与E′30对应。图像处理装置可以分别计算第100个遮罩区域中A100,B100,C100,D100,E100这5个像素点与第一区域中对应像素点A′30,B′30,C′30,D′30,E′30的灰度差异总和GreyD:

其中,公式(3)中|GreyA-GreyA′|表示像素点A100的灰度值GreyA与像素点A′30的灰度值GreyA′的绝对差值。|GreyB-GreyB′|表示像素点B100的灰度值GreyB与像素点B′30的灰度值GreyB′的绝对差值。|GreyC-GreyC′|表示像素点C100的灰度值GreyC与像素点C′30的灰度值GreyC′的绝对差值。|GreyD-GreyD′|表示像素点D100的灰度值GreyD与像素点D′30的灰度值GreyD′的绝对差值。|GreyE-GreyE′|表示像素点E100的灰度值GreyE与像素点E′30的灰度值GreyE′的绝对差值。图像处理装置可以计算每个遮罩区域与该第一区域的灰度值之间的灰度差异总和GreyD,并将与该第一区域的灰度差异总和最小(GreyD)min的遮罩区域确定为第二区域。本申请实施例中,若左视图和右视图均为灰度图像,图像处理装置可以通过计算第一区域与遮罩区域上像素点的灰度值的绝对差值来确定像素差异,说明本申请实施例的图像处理方法仍适用于灰度图像,应用范围广,提供了更加完善的图像处理方法。

在一些可行的实施方式中,若右视图(指第一图像)为彩色图像,左视图(指第二图像)为灰度图像,针对该第一区域中的每个像素点,图像处理装置可以将该第一区域中的该像素点的色彩值转换得到该像素点的灰度值。再获取每个遮罩区域中各个像素点与该第一区域中对应像素点的灰度值的灰度差异总和。并可以将与该第一区域的灰度差异总和最小的遮罩区域确定为第二区域。例如,图像处理装置可以根据RGB色彩与灰度的转换公式Gray=R*0.299+G*0.587+B*0.114,将第一区域中每个像素点的色彩值转换成这个像素点对应的灰度值。再利用上述公式(3)计算每个遮罩区域与该第一区域的灰度值之间的灰度差异总和GreyD,将与该第一区域的灰度差异总和最小的遮罩区域确定为第二区域。本申请实施例中,若左右视图中一张图像为彩色,另一张为灰度,如右视图为彩色图像,左视图为灰度图像,图像处理装置可以先将右视图中第一区域的色彩值转换成灰度值,再计算第一区域与遮罩区域的灰度值的绝对差值来确定像素差异。说明本申请实施例提供的图像处理方法还应用于一张图像为彩色而另一张图像为灰度的情况,进一步扩大了应用范围。

本申请实施例中,对于上述步骤S103,可以有以下的一些可能的实现方式:

在一些可行的实施方式中,针对图5A所示的获取遮罩区域的方式,图像处理装置可以在上述第一区域中确定第一参考点,并在上述第二区域中确定与该第一参考点对应的第二参考点。图像处理装置计算该第一参考点在右视图上的横向位置,并计算该第二参考点在左视图上的横向位置。从而计算该第一参考点在右视图上的横向位置与该第二参考点在左视图上的横向位置的水平位移差。其中,第一参考点为该第一区域的重心点,则第二参考点为该第二区域的重心点。或者第一参考点为第一区域中最左边(最右边)的像素点,第二参考点则为第二区域中最左边(最右边)的像素点。如图6A所示,图6A为一种水平位移差的示意图。其中,图像处理装置根据第一区域a1的形状,确定第一区域a1的重心点作为第一参考点RP1。由于图6A所示的第一区域a1为圆形,其重心点即为圆心。同理,图像处理装置可以在第二区域b1中确定第二参考点RP2。图像处理装置计算该第一参考点RP1距离右视图最左边的像素点数量P1=79,并计算该第二参考点RP2距离左视图最左边的像素点数量为P2=103。再获取该第一参考点RP1距离右视图最左边的像素点数量P1与该第二参考点RP2距离左视图最左边的像素点数量P2的绝对差值24。最后将该绝对差值24个像素点转换成水平位移差。像素与厘米的换算关系可为:实际尺寸(英寸)=像素/分辨率,1英寸=2.54厘米。

在一些可行的实施方式中,针对图5B所示的获取遮罩区域的方式,由于图像处理装置记录了该至少一个遮罩区域中每个遮罩区域对应的遮罩窗在左视图上平移的像素点数量。图像处理装置可以计算该第一区域在右视图中的横向位置,并且可以获取上述记录的该第二区域对应的遮罩窗在左视图上平移的像素点数量,即该第二区域在左视图中的横向位置。图像处理装置可以计算该第一区域在右视图中的横向位置与该第二区域在左视图中的横向位置的水平位移差。如图6B所示,图6B是另一种水平位移差的示意图。其中,第一区域a1最左边的像素点距离右视图的最左边R1=100个像素点,即第一区域a1在右视图R上的横向位置为100个像素点。第二区域b2对应的遮罩窗A2从左视图L最左边的位置开始向右平移,记录A2中c1与b2重合时共平移的像素点数量R2=135,即第二区域b2在左视图L上的横向位置为135个像素点。图像处理装置计算第一区域在右视图中的横向位置100个像素点与第二区域在左视图中的横向位置135个像素点的绝对差值35个像素点。图像处理装置可以获取右视图/左视图的分辨率,并根据该分辨率将该绝对差值35个像素点转换成水平位移差。

同理,第一区域a1最右边的像素点距离右视图的最右边R1=120个像素点,即第一区域a1在右视图R上的横向位置为120个像素点。第二区域b2对应的遮罩窗A2从左视图L最右边的位置开始向左平移,记录A2中c1与b2重合时共平移的像素点数量R2=85,即第二区域b2在左视图L上的横向位置为85个像素点。图像处理装置计算第一区域在右视图中的横向位置120个像素点与第二区域在左视图中的横向位置85个像素点的绝对差值35个像素点。图像处理装置可以获取右视图/左视图的分辨率,并根据该分辨率将该绝对差值35个像素点转换成水平位移差。

在一些可行的实施方式中,针对图5C所示的获取遮罩区域的方式,由于图像处理装置记录了每个遮罩区域b3对应的遮罩窗A3在左视图中平移的像素点数量。图像处理装置可以获取第二区域对应的遮罩窗A3在左视图中平移的像素点数量,并将该像素点数量转换成水平位移差。如图6C所示,图6C是又一种水平位移差的示意图。其中,第二区域b3对应的遮罩窗A3从左视图L的四个顶点分别与A3的四个顶点对齐时开始向右平移,记录A3中c1与b3重合时共平移的像素点数量Pa=35。图像处理装置获取Pa,并将Pa=35个像素点换算成水平位移差。

本申请实施例中,对于上述步骤S104,可以有以下的一些可能的实现方式:

在一些可行的实施方式中,由于拍摄设备的右方摄像机与左方摄像机的拍摄焦距相同。图像处理装置可以获取拍摄右视图和/或左视图时的拍摄焦距。图像处理装置还可以获取右方摄像机(指第一摄像机)与左方摄像机(指第二摄像机)之间的间隔距离。图像处理装置可以计算该拍摄焦距与该间隔距离的乘积,并将该拍摄焦距与该间隔距离的乘积除以上述计算得到的水平位移差所得的商,确定为该目标物体与该拍摄设备之间的距离。例如,可以用Z表示目标物体与拍摄设备之间的距离,F表示拍摄设备的拍摄焦距,B表示拍摄设备的右方摄像机与左方摄像机之间的间隔距离,d表示上述计算得到的水平位移差。目标物体与拍摄设备之间的距离Z=B*F/d。本申请实施例只计算一次水平位移差,而不需要计算右视图和左视图各对应像素点的水平位移差,根据水平位移差确定目标物体与拍摄设备之间的距离,从而减少了运算量,提高了工作效率。

本申请实施例中,图像处理装置在右视图(指第一图像)中获取第一区域,再在左视图中获取第二区域。该第一区域为右视图中目标物体对应的图像区域,该第二区域与该第一区域的形状和大小相同,且该第二区域与该第一区域的像素差异小于像素差异阈值,该第二区域为左视图中该目标物体对应的图像区域。接着,图像处理装置计算第一区域在右视图中的位置与第二区域在左视图中的位置之间的水平位移差,并根据该相对水平位移差确定上述目标物体与拍摄设备之间的距离,该水平位移差为该第一区域与该第二区域之间的视差。本申请实施例利用目标物体在右视图上的位置与该目标物体在左视图上的位置之间的水平位移差来代表右视图和左视图的水平位移差,而不需要计算右视图和左视图各对应像素点的水平位移差,从而减少了运算量,提高了工作效率。

上述详细阐述了本申请实施例的方法,为了便于更好地实施本申请实施例的上述方案,本申请实施例还提供了相应的装置。

参见图7,图7是本申请实施例提供的一种图像处理装置的结构示意图。如图7所示,该图像处理装置70可包括:

第一获取模块701,用于在第一图像中获取第一区域。其中,该第一区域为该第一图像中目标物体对应的图像区域。

第二获取模块702,用于在第二图像中获取第二区域。其中,该第二区域与该第一区域的形状和大小相同,且该第二区域与该第一区域的像素差异小于像素差异阈值,该第二区域为该第二图像中该目标物体对应的图像区域。

计算模块703,用于计算上述第一获取模块701获取的上述第一区域在上述第一图像中的位置与上述第二获取模块702获取的上述第二区域在上述第二图像中的位置之间的水平位移差。其中,该水平位移差用于表示该第一区域与该第二区域之间的视差。

确定模块704,用于根据上述计算模块703计算的上述水平位移差确定上述目标物体与拍摄设备之间的距离。

其中,上述第一图像为上述拍摄设备的第一摄像机拍摄的图像,上述第二图像为上述拍摄设备的第二摄像机拍摄的图像,该第一摄像机和该第二摄像机位于一条水平线上。

在一些可行的实施方式中,上述第一获取模块701具体用于对该第一图像进行图像分割后得到该第一区域。

在一些可行的实施方式中,上述第一获取模块701具体用于将该第一图像中的多个目标像素点所共同组成的区域确定为该第一区域。其中,该目标像素点的特征值在目标阈值范围内。

在一些可行的实施方式中,上述第一获取模块701还用于确定该第一图像中该目标物体对应的参考区域,获取该参考区域中多个像素点的特征值,根据该参考区域中多个像素点的特征值,确定用于图像分割的目标阈值范围。其中,该参考区域用于反映该目标物体在该第一图像中的初步定位。

在一些可行的实施方式中,上述特征值包括色彩值、灰度值或深度参考值,上述深度参考值用于表示像素点与拍摄设备之间的参考距离。

在一些可行的实施方式中,上述第二获取模块702具体用于在该第二图像中获取一个或多个遮罩区域,该多个遮罩区域中的每个遮罩区域与该第一区域的形状和大小相同,根据该每个遮罩区域分别与该第一区域的像素差异,将与该第一区域的像素差异小于像素差异阈值的遮罩区域确定为该第二区域。

在一些可行的实施方式中,上述第二获取模块702具体用于根据上述第一区域确定与上述第一区域对应的遮罩窗,将该遮罩窗的上下边缘分别与该第二图像的上下边缘齐平后进行平移,得到该第二图像中的一个或多个遮罩区域。其中,该遮罩窗与该第一图像的大小和形状均相同。

在一些可行的实施方式中,上述每个遮罩区域与上述第一区域的像素差异为上述每个遮罩区域中各个像素点与上述第一区域中对应像素点的色彩值的色彩差异总和。

在一些可行的实施方式中,上述每个遮罩区域与上述第一区域的像素差异为上述每个遮罩区域中各个像素点与上述第一区域中对应像素点的灰度值的灰度差异总和。

在一些可行的实施方式中,上述图像处理装置70还包括:转换模块705,用于将上述第一获取模块701获取的上述第一区域中各个像素点的色彩值转换得到上述各个像素点的灰度值。

在一些可行的实施方式中,上述第二获取模块702具体用于根据每个遮罩区域分别与该第一区域的像素差异,将与该第一区域的像素差异最小的遮罩区域确定为该第二区域。

在一些可行的实施方式中,上述确定模块704具体用于获取拍摄上述第一图像和/或上述第二图像时的拍摄焦距,获取第一摄像机与第二摄像机之间的间隔距离,根据该拍摄焦距、该间隔距离和该水平位移差确定该目标物体与该拍摄设备之间的距离。

在一些可行的实施方式中,上述确定模块704还具体用于计算上述拍摄焦距与上述间隔距离的乘积,再将上述拍摄焦距与上述间隔距离的乘积除以上述水平位移差所得的商确定为上述目标物体与上述拍摄设备之间的距离。

具体实现中,各个模块的实现还可以对应参照图3所示的方法实施例的相应描述,执行上述实施例中所执行的方法和功能。

参见图8,图8为本申请实施例提供的另一种图像处理装置的结构示意图。如图8所示,该图像处理装置100可包括:处理器110和存储器120(一个或多个计算机可读存储介质)。这些部件可在一个或多个通信总线130上通信。

上述处理器110可包括应用处理器(application processor,AP)和图像信号处理器(image signal processor,ISP)。其中,AP和ISP可以是两个相对独立的部件,也可以集成在一块集成芯片上。

上述存储器120与处理器110耦合,用于存储各种软件程序和/或多组指令。具体实现中,存储器120可包括高速随机存取的存储器,并且也可包括非易失性存储器,例如一个或多个磁盘存储设备、闪存设备或其他非易失性固态存储设备。存储器120可以存储操作系统(下述简称系统),例如WINDOWS、LINUX、ANDROID,IOS等系统。存储器120还可以存储网络通信程序,该网络通信程序可用于与一个或多个附加设备,一个或多个终端设备,一个或多个网络设备进行通信。存储器120还可以存储用户接口程序,该用户接口程序可以通过图形化的操作界面将应用程序的内容形象逼真的显示出来,并通过应用图标、菜单、对话框以及按键等输入控件接收用户对应用程序的控制操作。存储器120还可以存储一个或多个应用程序。如图8所示,这些应用程序可包括:摄像机、图库以及其他应用程序等。本申请中,存储器120可用于存储实现图3所示图像处理方法的计算机程序。上述处理器110调用存储器120存储的计算机程序实现图3所示的图像处理方法。

在一些可行的实施方式中,图像处理装置100还可包括通信部件140、电源管理部件150以及***系统(I/O)160。上述通信部件140可以控制图像处理装置100与另一通信设备之间的通信连接。通信部件140可以包括射频部件、蜂窝部件等等。通信部件140可以通过使用射频来提供无线通信功能。可选地,通信部件140可以包括用于将图像处理装置100连接到网络(例如互联网、局域网、广域网、电信网络、蜂窝网络、卫星网络、简易老式电话服务等)的网络接口、调制器/解调器(调制解调器)等。

上述电源管理部件150主要用于为处理器110、存储器120、通信部件140以及***系统160提供稳定的、高精确度的电压。

上述***系统(I/O)160主要用于实现图像处理装置100和用户/外部环境之间的交互功能,主要包括图像处理装置100的输入输出装置。具体实现中,***系统(I/O)160可包括多个(这里指大于或等于2个)摄像头控制器,如图8所示的摄像头控制器1、摄像头控制器2、摄像头控制器3等。其中,各个摄像头控制器可与各自对应的***设备如摄像头1、摄像头2、摄像头3耦合。在一些可行的实施方式中,拍摄图像时摄像头1与摄像头2位于一条水平线上,摄像头1可以是彩色摄像头,摄像头2可以是黑白摄像头。实际应用中,***系统(I/O)160还可以包括其他I/O外设,这里不作限制。

在一些可行的实施方式中,拍摄图像时摄像头1与摄像头2位于一条水平线上,摄像头控制器1控制摄像头1将采集到的图像信号传送给ISP,ISP对接收到的图像信号进行处理后,形成第一图像。同理,摄像头控制器2控制摄像头2将采集到的图像信号传送给ISP,ISP对接收到的图像信号进行处理后,形成第二图像。ISP将第一图像和第二图像传送给AP进行图3实施例所述的图像处理。具体实现中,摄像头1和摄像头2若在图像处理装置上是左右排列的,拍摄时可竖屏使摄像头1与摄像头2位于一条水平线上,摄像头1和摄像头2若在图像处理装置上是上下排列的,拍摄时可横屏使摄像头1与摄像头2位于一条水平线上,摄像头1和摄像头在图像处理装置上的物理位置关系本申请实施例不作限制。摄像头控制器1和摄像头控制器2通过同步机制控制摄像头1和摄像头2同时采集图像信号。在一些可行的实施方式中,AP或ISP同时向摄像头控制器1和摄像头控制器2发送控制指令,该控制指令用于控制摄像头1和摄像头2同时采集图像信号。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:ROM或随机存储记忆体RAM、磁碟或者光盘等各种可存储程序代码的介质。

25页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:瞳孔半径的检测方法、装置、计算机设备和存储介质

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!