一种应用于车载环视摄像的裸眼3d显示方法及系统

文档序号:1357211 发布日期:2020-07-24 浏览:22次 >En<

阅读说明:本技术 一种应用于车载环视摄像的裸眼3d显示方法及系统 (Naked eye 3D display method and system applied to vehicle-mounted all-around camera shooting ) 是由 戴勇 陈辉 黄永红 于 2020-04-02 设计创作,主要内容包括:本发明涉及一种应用于车载环视摄像的裸眼3D显示方法及系统,属于车载3D图像显示领域,其应用于车载环视摄像的裸眼3D显示系统,其特征在于:包括以下步骤:步骤S1、视频图像采集;步骤S2、生成全景图像;步骤S3、分别将车的3D模型对嵌入左视角全景图像和右视角全景图像中;步骤S4、加载嵌入路面标识3D模型;步骤S5、合成3D图像;步骤S6、3D图像显示。本发明提供一种应用于车载环视摄像的裸眼3D显示方法及系统,在具有视差的左右眼视图的基础上嵌入3D模型,使行车画面呈现出更逼真的立体效果和指示图标“悬浮”于屏幕的感觉,指示信息更醒目,人机交互界面更友好。(The invention relates to a naked eye 3D display method and system applied to vehicle-mounted all-around photography, belonging to the field of vehicle-mounted 3D image display, and being applied to a naked eye 3D display system of vehicle-mounted all-around photography, and being characterized in that: the method comprises the following steps: step S1, collecting video images; step S2, generating a panoramic image; step S3, embedding the 3D model pair of the vehicle into the left view panoramic image and the right view panoramic image respectively; step S4, loading the embedded pavement marker 3D model; step S5, synthesizing a 3D image; step S6, 3D image display. The invention provides a naked eye 3D display method and a naked eye 3D display system applied to vehicle-mounted all-around camera shooting, wherein a 3D model is embedded on the basis of left and right eye views with parallax, so that a driving picture presents more vivid three-dimensional effect and the feeling that an indication icon is suspended on a screen, the indication information is more striking, and a human-computer interaction interface is more friendly.)

一种应用于车载环视摄像的裸眼3D显示方法及系统

技术领域

本发明涉及车载3D图像显示技术领域,尤其是涉及一种应用于车载环视摄像的裸眼3D显示方法及系统。

背景技术

随着裸眼3D技术的发展,人的眼睛可以不用通过辅助手段从显示设备看到效果逼真的立体图像,裸眼3D的技术原理是产生两幅具有视差的左右眼图像,通过显示设备对视差图的分光可将左眼视图和右眼视图分开,分别到达人的左眼和右眼,大脑的视觉神经通过两眼视角之间的差别来感知深度和距离,获得具有空间深度感的逼真的虚拟立体画面。

车载显示系统日益成为汽车辅助驾驶及车载娱乐系统的重要组成部分,环视摄像系统显示能使驾驶人员通过显示屏以上帝的视角查看车辆的驾驶状况以及周围的路况,目前的环视摄像系统显示是以平面图像进行显示,平面显示相对来说看起来不够直观醒目,人机交互界面不够友好,缺少高效便捷的辅助驾驶的立体指引信息。

因此,需要提出一种新的技术方案来解决上述技术问题。

发明内容

本发明的目的一是提供一种应用于车载环视摄像的裸眼3D显示方法及系统,在具有视差的左右眼视图的基础上嵌入3D模型,使行车画面呈现出更逼真的立体效果和指示图标“悬浮”于屏幕的感觉,指示信息更醒目,人机交互界面更友好。

本发明的上述一发明目的是通过以下技术方案得以实现的:

一种应用于车载环视摄像的裸眼3D显示方法,应用于车载环视摄像的裸眼3D显示系统,包括以下步骤:

步骤S1、视频图像采集,通过四组车载环视双目摄像头实时采集车辆周向的八路视频图像信号;

步骤S2、生成全景图像,将4路左视角图像渲染并接成一张左视角全景图像,将4路右视角图像渲染并接成一张右视角全景图像;

步骤S3、分别将车的3D模型对嵌入左视角全景图像和右视角全景图像中;

步骤S4、加载嵌入路面标识3D模型,通过检测器模型对左视角全景图像和右视角全景图像的路面标识进行检测,根据检测到的路面标识类型,从存储单元模块加载对应的路面标识3D模型,分别嵌入到左视角全景图和右视角全景图的相应位置;

步骤S5、合成3D图像,图像处理模块对两路图像像素进行渲染排图合成处理,生成一幅具有视差信息的3D图像;

步骤S6、3D图像显示,3D图像通过车载裸眼3D显示器进行分光后产生具有裸眼3D效果的虚拟立体画面。

通过采用上述技术方案,分别将四个点的左视图和右视图合成左视角和右视角全景图,分别将车的3D模型嵌入左视角全景图和右视角全景图,同时通过检测器模型对两个视图的路面标识进行检测,根据检测到的路面标识类别,从存储单元模块加载相应的标识3D模型,分别嵌入左视角全景图和右视角全景图的相应位置,然后渲染合成具有视差信息的3D图像,在裸眼3D显示器进行显示得到以上帝视角观看的具有辅助驾驶操作指引的行车环境立体画面。

本发明进一步设置为:所述步骤S1中,视频图像采集,通过四组车载环视双目摄像头实时采集车辆周向的八路视频图像信号,包括以下步骤:

步骤S101、获取原始图像信息,四组所述车载环视双目摄像头实时拍摄获取场景图像信息;

步骤S102、图像处理,所述车载环视双目摄像头电连接有视频图像采集模块,所述视频图像采集模块用于将车载环视双目摄像头拍摄传输过来的八路视频信号进行并行模数转换、压缩处理,转换为数字图像帧。

通过采用上述技术方案,通过视频图像采集模块将车载环视双目摄像头拍摄到的视频流转换为数据流输出以便后期的数据传输和处理。

本发明目的二是提供一种应用于车载环视摄像的裸眼3D显示系统,具有生成逼真的行车立体画面,直观醒目地提供车辆及周围空间状况,使驾驶人员更迅速地获取重要的路面标识信息的特点。

本发明的另一技术目的是提供一种应用于车载环视摄像的裸眼3D显示系统,包括四组车载环视双目摄像头、车载裸眼3D显示器以及连接车载环视双目摄像头和车载裸眼3D显示器的显示处理装置,所述显示处理装置包括:

视频图像采集模块,用于获取车载环视双目摄像头视频信号,并将视频信号转换为数字图像帧数据输出;

图像处理模块,用于将左视角的四个方位点图像并接成左视角全景图,将右视角的四个方位点图像并接成右视角全景图,并将路面标识3D模型分别嵌入到左视角全景图和右视角全景图中;

AI模块,电连接于图像处理模块,用于图像处理的具有加速计算功能的神经网络计算模块,对两张全景图进行目标检测;

显示器控制模块,用于控制信号驱动和控制3D图像像素在车载裸眼3D显示器的显示排图;

存储单元模块,用于操作系统和路面标识3D模型存放;

通用计算模块,与所述视频图像采集模块、AI模块、图像处理模块、显示器控制模块以及存储单元模块电连接并控制各个模块之间的协同工作。

通过采用上述技术方案, 通过各个模块之间的相互配合,将四组车载环视双目摄像头拍摄的八路视频图像进行处理得到两张全景图像,然后对两张全景图的像素进行渲染排图、合成为一张具有视差信息的全景3D图像;相比于直接采用昂贵的立体摄像机设备从多个角度同时拍摄的方式,采用本系统制作的立体行车画面不仅制作成本低,且不受空间布局的制约;相比于采用单个摄像机拍摄成2D视频源,用软件算法将2D视频画面转换为3D视频画面的方式,采用本系统的制作方式虽然在成本上比单个摄像机拍摄要高,但是避免了2D视频画面转换为3D视频画面过程中存在的,由于从单张图片中推理深度信息是一个高度不确定的问题,对于不可见视区,无论在单视图像,还是对应深度图中,都没有该区域的信息,导致在合成的3D图像中难以填充这个区域的图像缺失的技术问题。

本发明进一步设置为:四组所述车载环视双目摄像头环绕车身周向固定安放在车身上,四组所述车载环视双目摄像头分别环绕设置在车身的前向、左向、后向、右向四个方向上,所述车载环视双目摄像头分别为设置在车头保险杆上的前向双目摄像头、安装在车身左前车门上的左向双目摄像头、安装在车尾保险杆上的后向双目摄像头以及安装在车身右前门上的右向双目摄像头;每组所述车载环视双目摄像头的设置参照人眼视觉特性来进行设计安放。

通过采用上述技术方案,通过将四组车载环视双目摄像头环绕设置在车身上,从而实现全景图像的采集拍摄,双目摄像头采用人眼视觉特性来布置可以直接产生3D图像所需要的视差信息,不需要通过深度信息来估算高度不确定的不可见区域图像,能通过从不同的拍摄角度获得的图像信息来构建更逼真的立体场景。

本发明进一步设置为:每组所述车载环视双目摄像头均包括左视角摄像头和右视角摄像头,所述左视角摄像头和右视角摄像头共同向内侧偏转相同角度。

通过采用上述技术方案,通过设置左视角摄像头和右视角摄像头向内倾斜相同角度避免在两个视角之间引入额外的垂直视差,从而降低人眼观看的疲劳感。

本发明进一步设置为:所述左视角摄像头和右视角摄像头均采用超广角鱼眼摄像头。

通过采用上述技术方案,通过采用超广角鱼眼摄像头,从而使得拍摄的范围更广,拍摄的画面更加清晰。

本发明进一步设置为:所述车载裸眼3D显示器包括车载液晶显示面板和粘贴在车载液晶显示面板上的裸眼3D光栅膜,所述裸眼3D光栅膜采用柱状镜光栅膜。

通过采用上述技术方案,通过在车载液晶显示面板上粘贴裸眼3D光栅膜从而形成车载裸眼3D显示器,便于在现有的车载液晶显示面板上进行改造,从而降低系统应用的成本,裸眼3D光栅膜采用柱状镜光栅膜,利用柱状镜光栅膜对液晶屏光像素进行折射来实现分光,将左眼图像画面和右眼图像画面的光线分别投射向观看者的左眼和右眼,使观看者从两个不同的角度看到两幅具有视差信息的图像,产生具有距离感和深度感的立体视觉效果。

本发明进一步设置为:所述AI模块为一个神经网络计算模块,所述神经网络计算模块由预先训练好的基于人工智能技术的检测器模型进行配置,所述检测器模型采用基于VGG架构的自编码深度神经网络。

通过采用上述技术方案,VGG架构的自编码深度神经网络结构简洁,采用堆积的3x3卷积核结构,通过多层非线性层增加网络深度,对特征的学习能力更强;处理速度快,能达到实时检测的要求。

本发明进一步设置为:所述检测器模型的训练方案包括基于ImageNet数据集的初始化训练、基于收集和自制作数据集的优化训练。

本发明目的三是提供一种计算机存储介质,能够存储相应的程序,具有便于实现获得具有空间深度感的逼真的虚拟立体画面的特点。

本发明的上述发明目的三是通过以下技术方案得以实现的:

存储有能够被处理器加载并执行上述任一种应用于车载环视摄像的裸眼3D显示方法的计算机程序。

通过采用上述技术方案,使用收集和自制作的数据集训练检测器模型是一个半监督学习训练的过程,包含无监督学习和监督学习两个部分,通过将无监督学习聚类好的数据结合有标签数据来进行监督学习训练,在无监督学习学会对数据进行分类的基础上使用监督学习对分类的数据进行标签归类,这样能以较低成本得到一个大规模的有标签训练数据样本集,从而可以基于海量的特征分布训练增强网络提取目标特征和识别模式的能力,提高检测器模型的检测精确度和对各种多变环境的泛化能力,以达到较准确地应用于实际驾驶场景检测各种形状角度多变的路面标识的目的。

综上所述,本发明的有益技术效果为:通过采用双目摄像头的布置可以直接拍摄生成左右视差图像,将左右视差图像合成全景图像画面,渲染合成3D左右眼图像并在车载裸眼3D显示器进行显示,得到以上帝视角观看的具有辅助驾驶操作指引的行车环境立体画面,同时通过从不同的拍摄角度获得的图像信息来构建更逼真的立体场景,降低3D视频制作的成本;设计和训练基于深度学习技术的检测器模型,用于检测路面交通标识,再根据基于人工智能检测器模型检测到的路面标识来嵌入对应的3D图像,使得指示图标“悬浮”于屏幕的感觉,指示信息更醒目,人机交互界面更友好。

附图说明

图1是本发明的显示方法的步骤流程示意图;

图2是本发明的显示方法算法的工作流程图;

图3是本发明的显示系统的总体结构图;

图4是本发明的车载环视双目摄像头布置的前视图;

图5是本发明的车载环视双目摄像头布置的平面剖视图;

图6是本发明的四组车载环视双目摄像头在车身上的安装位置;

图7是本发明的车载环视双目摄像头图像两两相邻的重叠区域和并接;

图8是本发明要提取的左眼视图像素排列示意图;

图9是本发明要提取的右眼视图像素排列示意图;

图10是本发明合成图像的像素排列示意图;

图11是本发明的裸眼3D显示器工作原理图;

图12是本发明的车载裸眼3D显示器的结构示意图。

图中:1、车载环视双目摄像头;11、左视角摄像头;12、右视角摄像头;2、视频图像采集模块;3、AI模块;4、图像处理模块;5、显示器控制模块;6、存储单元模块;7、通用计算模块;8、车载裸眼3D显示器;81、车载液晶显示面板;82、裸眼3D光栅膜。

具体实施方式

以下结合附图对本发明作进一步详细说明。

实施例一:

参照图1和图2,为本发明公开的一种应用于车载环视摄像的裸眼3D显示方法,应用于车载环视摄像的裸眼3D显示系统,包括以下步骤:

步骤S1、视频图像采集,通过四组车载环视双目摄像头1实时采集车辆周向的八路视频图像信号。

关于视频图像的采集,通过以下具体步骤获得:

步骤S101、获取原始图像信息,通过四组车载环视双目摄像头1实时拍摄获取场景图像信息;

步骤S102、图像处理,四组车载环视双目摄像头1均电连接于视频图像采集模块2,视频图像采集模块2用于将车载环视双目摄像头1拍摄传输过来的八路视频信号进行并行模数转换、压缩处理,转换为适合图像处理模块4和AI模块3处理的数字图像帧。

步骤S2、生成全景图像,将4路左视角图像渲染并接成一张左视角全景图像,将4路右视角图像渲染并接成一张右视角全景图像。

步骤S3、分别将车的3D模型对嵌入左视角全景图像和右视角全景图像中。

步骤S4、加载嵌入路面标识3D模型,通过检测器模型对左视角全景图像和右视角全景图像的路面标识进行检测,根据检测到的路面标识类型,从存储单元模块6加载对应的路面标识3D模型,分别嵌入左视角全景图和右视角全景图的相应位置。

步骤S5、合成3D图像,图像处理模块4对两路图像像素进行渲染排图合成处理,生成一幅具有视差信息的3D图像。

步骤S6、3D图像显示,显示器控制模块5驱动和控制图像像素在车载裸眼3D显示器8的显示排图,生成的3D图像通过车载裸眼3D显示器8进行分光后产生具有裸眼3D效果的虚拟立体画面。

实施例二:

参照图3,一种应用于车载环视摄像的裸眼3D显示系统,包括硬件系统设计和软件算法实现两部分,硬件系统组成主要包括车载环视双目摄像头1、车载裸眼3D显示器8和硬件计算系统,硬件计算系统设计采用SoC系统实现;软件算法实现部分包括应用于目标检测识别的基于人工智能的检测器模型和进行全景图像并接融合、3D模型图像嵌入以及将双目2D图像合成裸眼3D图像的渲染算法;软件算法实现部分以操作系统模式存放在硬件计算系统内,软件算法实现部分和硬件计算系统组合成连接车载环视双目摄像头1和车载裸眼3D显示器8的显示处理装置。显示处理装置包括:

视频图像采集模块2,用于获取车载环视双目摄像头1视频信号,并将视频信号转换为数字图像帧数据输出;

图像处理模块4,用于将左视角的四个方位点图像并接成左视角全景图,将右视角的四个方位点图像并接成右视角全景图,并将路面标识3D模型分别嵌入到左视角全景图和右视角全景图中;

AI模块3,电连接于图像处理模块4,用于图像处理的具有加速计算功能的神经网络计算模块,对两张全景图进行目标检测;

显示器控制模块5,用于控制信号驱动和控制3D图像像素在车载裸眼3D显示器8的显示排图;

存储单元模块6,用于操作系统和路面标识3D模型存放;

通用计算模块7,与视频图像采集模块2、AI模块3、图像处理模块4、显示器控制模块5以及存储单元模块6电连接,用于向各个模块发出指令信号,控制各个模块之间的协同工作。

参照图4和图5,在人的视觉系统中,由于两只眼睛存在间距,因此在看物体的时候,左眼和右眼视网膜上的物体映像会存在一定程度的水平差异,从而使得人眼看到的场景有远近和距离感,因此本方案中车载环视双目摄像头1的安放设置参照人眼视觉特性来进行设计安放。每组车载环视双目摄像头1均包括左视角摄像头11和右视角摄像头12,且两个摄像头之间的间距按照摄像头中心点之间的间距计算,本实施例中左视角摄像头11和右视角摄像头12的中心点之间的间距接近人眼双目之间的距离为65mm。

参照图4和图5,左视角摄像头11和右视角摄像头12共同向内侧偏转相同角度,通过使用这种偏转相同角度的移轴方法不会在两个视角之间引入额外的垂直视差。左视角摄像头11和右视角摄像头12的摄像头视轴向内倾斜的角度均为(a/2)°,两个摄像头的视线在前向的方向相交,两条相交线的内角为a°,a的具体数值由安放到具体车辆时根据摄像头的选型以及车载裸眼3D显示的效果调试校准确定,摄像头校准后固定安放在车身上。

参照图6,为实现环视效果,四组车载环视双目摄像头1环绕车身周向固定安放在车身上,四组车载环视双目摄像头1分别环绕设置在车身的前向、左向、后向、右向四个方向上,按其安装的位置划分,四组车载环视双目摄像头1分别为设置在车头保险杆上的前向双目摄像头、安装在车身左前车门上的左向双目摄像头、安装在车尾保险杆上的后向双目摄像头以及安装在车身右前门上的右向双目摄像头,使得四组车载环视双目摄像头1对车身四周的景象进行扫描,从而实现车载环视图像形成的原始素材。为保证更好的环视效果,左视角摄像头11和右视角摄像头12均采用超广角鱼眼摄像头,从而使得拍摄的范围更广,拍摄的画面更加清晰。

参照图3,视频图像采集模块2与四组车载环视双目摄像头1电连接,用于将双目摄像头传输过来的八路视频信号进行并行模数转换、压缩处理后,转换为适宜于图像处理模块4和AI模块3处理的数字图像帧。视频图像采集处理模块输出的八路图像帧数据通过电连接传输给图像处理模块4,图像处理模块4分别将左视角的四个方位点图像并接成左视角全景图,将右视角的四个方位点图像并接成右视角全景图,然后从存储单元模块6调取车的3D模型对,分别嵌入到左视角全景图和右视角全景图,并接好的左视角全景图和右视角全景图通过电连接传输给AI模块3,通过加载预先训练好的神经网络模型配置神经单元,对两张全景图进行目标检测。

参照图7,在环视摄像的相邻两个方位上的摄像头,在它们的视野范围内有两两相交的区域,即重叠区域,重叠的区域为前向摄像头和左向摄像头之间的重叠区域、左向摄像头和后向摄像头之间的重叠区域,后向摄像头和右向摄像头之间的重叠区域,右向摄像头和前向摄像头之间的重叠区域,为保证并接后全景图像更为平滑自然,图像处理模块4的算法包含SIFT算法和多波段融合算法。

先通过SIFT算法(尺度不变特征变换算法)分别对车身环视四个点的每一个视角(左眼视角和右眼视角)的前左两个相邻摄像头图像、左后两个相邻摄像头图像、后右两个相邻摄像头图像、右前两个相邻摄像头图像进行相邻重叠区域的特征点匹配,估算每两个相邻图像的投影变换矩阵,由每两个相邻图像的投影变换关系,分别将左右眼视角的四张图像依次拼接在一起,分别得到左右眼视角的全景图像,然后通过多波段融合算法分别对左视角全景图进行融合处理和右视角全景图进行融合处理,消除这两张图像里面的边界缝隙和叠影问题,使并接图像更平滑自然。

参照图2和图3,预制车的3D模型对,3D模型对包括左视3D模型和右视3D模型,将车的3D模型预存到系统的存储单元模块6。当左视角全景图和右视角全景图生成时,图像处理模块4调用预存在存储单元模块6里的车的3D模型对,将车辆的3D模型对分别嵌入合成到左右眼视角全景图像的中心位置,从而使得形成的3D全景图更加逼真。

参照图2和图3,AI模块3为一个神经网络计算模块,神经网络计算模块由预先训练好的基于人工智能技术的检测器模型进行配置,检测器模型采用基于VGG架构的自编码深度神经网络。其中检测器模型的训练方案包括基于ImageNet数据集的初始化训练、基于收集和自制作数据集的优化训练。首先通过在ImageNet数据集进行一个初始化训练,得到一个初始模型作为迁移学习的权重初始化,在此基础上使用收集和自制作的数据集进行迁移学习训练。收集和自制作的数据集包括两部分,一部分是大规模的无标签数据,用于无监督学习;另一部分是较大规模的有标签数据,用于监督学习训练。收集的数据为大量的形状多变的路面交通标识图片,自制作的有标签数据为标记编号的路面交通标识图片,以及记录图片编号和对应分类编号键值对的json格式文件。

使用收集和自制作的数据集训练检测器模型是一个半监督学习训练的过程,包含无监督学习和监督学习两个部分,无监督学习首先通过PCA主成分分析算法对大量的无标签数据进行降低特征噪声处理,然后通过t-SNE即t分布随机邻域嵌入算法对大规模的数据进行降维,提取主要特征分布,最后通过k-Means聚类算法按照特征分布对数据进行聚类,通过自编码重构数据来实现对特征的学习,从数据特征分布中学习到隐含的特征模式,在没有标签监督学习的情况下能根据特征来对数据进行归类划分。通过将无监督学习聚类好的数据结合有标签数据来进行监督学习训练,在无监督学习学会对数据进行分类的基础上使用监督学习对分类的数据进行标签归类,这样能以较低成本得到一个大规模的有标签训练数据样本集,从而可以基于海量的特征分布训练增强网络提取目标特征和识别模式的能力,提高检测器模型的检测精确度和对各种多变环境的泛化能力,以达到较准确地应用于实际驾驶场景检测各种形状角度多变的路面标识的目的。

参照图2和图3,AI模块3检测结果的信号通过电连接传输给图像处理模块4,图像处理模块4根据检测结果加载相应的路面交通标识3D模型,分别渲染嵌入到左视角全景图和右视角全景图,然后对两张全景图的图像像素进行渲染排图、合成为一张具有视差信息的全景3D图像。预制的路面交通标识3D模型包括:直行驾驶的直行指示模型,向左转弯的左转向指示模型,向右转弯的右转向指示模型,允许掉头的掉头指示模型,直行左转的指示模型,直行右转的指示模型,减速带的减速行驶指示模型,驾驶导向的导向标指示模型。

给各种路面交通标识的3D模型编号,编号存放在两张映射存储单元模块6存储地址的列表,分别对应于预存在存储单元模块6的左视3D模型和右视3D模型的映射关系。检测器的输出是一个向量表,向量表的编号对应于路面交通标识的3D模型编号,当向量表中某个编号的数值大于一个阈值,则表示检测到相应的路面交通标识,图像处理模块4通过列表提取预存的路面交通标识3D模型对,嵌入到左、右眼视角全景图像的相应位置。本发明的3D图像显示格式采用分层深度视频图像格式,即在实景摄制的左右眼视差图的基础上,增加一层合成的视差图,将3D场景分为背景和前景,背景为双目环视摄像头拍摄的真实驾驶环境视差图,前景为嵌入合成的车辆3D模型和驾驶指示图标3D虚拟动画,用两层视差图来描述合成的虚拟3D场景。

参照图8和图9,显示器控制模块5对左、右视角的图像像素进行采样重排列,使得合成后的图像尺寸和车载裸眼3D显示器8的尺寸一致,通过车载裸眼3D显示器8的分光后,左视角的光像素投射到左眼的方向,右视角的光像素投射到右眼的方向。通过图像渲染处理后获得左眼视图和右眼视图,左眼视图和右眼视图的分辨率均为M*N,M和N均为偶数。参照图10,车载裸眼3D显示器8创建一张分辨率为M*N的空白画布,将左眼视图从左边数起的偶数列像素按列提取像素,按相应列号逐列填入空白画布的相应偶数列,将右眼视图从左边数起的奇数列像素按列提取像素,按列号逐列填入空白画布的相应奇数列,这样把一张分辨率为(M/2)*N的左眼视图和一张分辨率为(M/2)*N的右眼视图合成一张新的分辨率为M*N的左右眼图像。

参照图11和图12,为便于对已出厂使用的普通车辆进行改造,车载裸眼3D显示器8可使用裸眼3D面板显示器,也可以是车载液晶显示面板81和粘贴在车载液晶显示面板81上的裸眼3D光栅膜82的组合。本实施例中裸眼3D光栅膜82采用柱状镜光栅膜,利用柱状镜光栅膜对液晶屏光像素进行折射来实现分光,将左眼图像画面和右眼图像画面的光线分别投射向观看者的左眼和右眼,使观看者从两个不同的角度看到两幅具有视差信息的图像,产生具有距离感和深度感的立体视觉效果。其中裸眼3D光栅膜82的尺寸为像素基本单元尺寸的2倍,定制微柱光栅参数周期、口径、焦距等参数,使光栅膜与车载液晶显示面板81图像的参数相互匹配,从而实现逼真的立体画面显示。本实施例在车载液晶显示面板81上的图像像素排列方式采用全像素分光的结构,即将RGB三个子像素组成的像素作为一个基本单元,通过柱状镜折射进行分光。

实施例三:

在一个实施例中,提供了一种计算机可读存储介质,其存储有能够被处理器加载并执行上述应用于车载环视摄像的裸眼3D显示方法的计算机程序,计算机程序被处理器执行时实现以下步骤:

步骤S1、视频图像采集,通过四组车载环视双目摄像头1实时采集车辆周向的八路视频图像信号;

步骤S2、生成全景图像,将4路左视角图像渲染并接成一张左视角全景图像,将4路右视角图像渲染并接成一张右视角全景图像;

步骤S3、分别将车的3D模型对嵌入左视角全景图像和右视角全景图像中;

步骤S4、加载嵌入路面标识3D模型,通过检测器模型对左视角全景图像和右视角全景图像的路面标识进行检测,根据检测到的路面标识类型,从存储单元模块6加载对应的路面标识3D模型,分别嵌入到左视角全景图和右视角全景图的相应位置;

步骤S5、合成3D图像,图像处理模块4对两路图像像素进行渲染排图合成处理,生成一幅具有视差信息的3D图像;

步骤S6、3D图像显示,3D图像通过车载裸眼3D显示器8进行分光后产生具有裸眼3D效果的虚拟立体画面。

所述计算机可读存储介质例如包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

具体实施方式的实施例均为本发明的较佳实施例,并非依此限制本发明的保护范围,故:凡依本发明的结构、形状、原理所做的等效变化,均应涵盖于本发明的保护范围之内。

23页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:一种多路3D信号拼接同步系统

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!

技术分类