一种基于多传感器信息融合的道路环境综合认知方法

文档序号:1963156 发布日期:2021-12-14 浏览:13次 >En<

阅读说明:本技术 一种基于多传感器信息融合的道路环境综合认知方法 (Road environment comprehensive cognition method based on multi-sensor information fusion ) 是由 金连成 汪瑾 王爱伶 尹成俊 于 2021-08-20 设计创作,主要内容包括:本发明公开了一种基于多传感器信息融合的道路环境综合认知方法,包括S1、配置毫米波雷达参数,根据回波数据完成测距和测角,采用帧差法显示动目标,初步分离出道路上的各个运动车辆后,采用恒虚警检测进行杂波抑制,确定车辆所在位置,并获取各探测帧内的车流量信息;S2、基于S1中获取的各个车辆所在的距离门位置,将速度与每个位置上的车辆一一对应;S3、标定毫米波雷达测量数据与能见度之间的函数关系;S4、对监控数据进行车辆识别、计数和态势显示,实时判断道路是否发生拥堵、事故或道路结冰状况;S5、配置能见度传感器;S6、配置气象6要素传感器S7、结合卷积神经网络进行多传感器数据融合,以实现对道路环境的综合认知判断。(The invention discloses a road environment comprehensive cognition method based on multi-sensor information fusion, which comprises the steps of S1, configuring millimeter wave radar parameters, finishing distance measurement and angle measurement according to echo data, displaying moving targets by adopting a frame difference method, after preliminarily separating each moving vehicle on a road, performing clutter suppression by adopting constant false alarm detection, determining the position of the vehicle, and acquiring traffic flow information in each detection frame; s2, corresponding the speed to the vehicle at each position one by one based on the distance door position where each vehicle is located acquired in S1; s3, calibrating a functional relation between the millimeter wave radar measurement data and visibility; s4, vehicle identification, counting and situation display are carried out on the monitoring data, and whether the road is congested, accidents or road icing conditions are judged in real time; s5, configuring a visibility sensor; s6, configuring a meteorological 6 element sensor S7, and combining a convolutional neural network to perform multi-sensor data fusion so as to realize comprehensive cognitive judgment on the road environment.)

一种基于多传感器信息融合的道路环境综合认知方法

技术领域

本发明属于毫米波雷达信号处理的技术领域,具体涉及一种基于多传感器信息融合的道路环境综合认知方法。

背景技术

道路交通事故作为危害人身安全的重要因素之一,每年造成巨大经济损失,长期以来受到社会各界和各部门的重视。

目前对道路环境的测量和认知主要由交通流量、天气气象信息、交通事件、交通管制信息、施工信息、拥堵情况几种信息构成。对于每种信息,均有不同的传感器进行测量和监控,如摄像头、能见度仪、气象传感器等。传感器的增加在获得更加丰富和精确的道路环境数据的同时,也带来了传感器功能重叠、设备安装分散、各类标准繁多、数据传输不同步、传感器数据利用不充分等问题,在覆盖交通道路和智能化道路发展过程中,存在“重建设、轻运营维护和统筹管理”的问题。目前已使用单一某个传感器无法实现对各种实际情况中的道路环境信息的准确认知,以及大规模大范围部署。

发明内容

本发明的目的在于针对现有技术中的上述不足,提供一种基于多传感器信息融合的道路环境综合认知方法,以解决或改善上述的问题。

为达到上述目的,本发明采取的技术方案是:

一种基于多传感器信息融合的道路环境综合认知方法,其包括以下步骤:

S1、配置毫米波雷达参数,根据回波数据完成测距和测角,采用帧差法显示动目标,初步分离出道路上的各个运动车辆后,采用恒虚警检测进行杂波抑制,确定车辆所在位置,并获取各探测帧内的车流量信息;对于多帧内的多目标进行航迹关联,获取车辆的行进轨迹;

S2、基于S1中获取的各个车辆所在的距离门位置,在原始雷达回波中通过在距离维和多普勒维的傅里叶变换获取到车辆的实时行进速度信息,并将速度与每个位置上的车辆一一对应;

S3、标定毫米波雷达测量数据与能见度之间的函数关系;

S4、配置数字摄像头并结合数字图像处理算法,对监控数据进行车辆识别、计数和态势显示,实时判断道路是否发生拥堵、事故或道路结冰状况;当能见度低于阈值时;

S5、配置能见度传感器,实时将能见度数据传输至上位机,并实时显示能见度异常数据;

S6、配置气象6要素传感器,实时上传风速、温度、湿度、气压、雨量、和光照6要素气象数据;

S7、根据S1至S6中的多传感器数据构建数据集,并结合卷积神经网络进行多传感器数据融合,以实现对道路环境的综合认知判断。

进一步地,步骤S1中配置毫米波雷达参数,根据回波数据完成测距和测角,采用帧差法显示动目标,初步分离出道路上的各个运动车辆后,采用恒虚警检测进行杂波抑制,确定车辆所在位置,并获取各探测帧内的车流量信息;对于多帧内的多目标进行航迹关联,获取车辆的行进轨迹,具体包括:

配置毫米波雷达参数:

其中,Rres为距离分辨率,c为真空中的光速3×108m/s,B为雷达带宽;

经过低通滤波器后得到回波信号与发射信号的差频信号Sb,在其距离向快时间做傅里叶变换进行去调频处理得到差频fIF,根据频率与距离的换算计算目标所在距离:

其中,d为目标所在距离,k为调频斜率;

采用capon算法计算测角:

其中,w为权矢量,R为雷达天线接收信号的协方差矩阵,P(w)=wHRw,为输出的平均功率;上式的约束条件为wHa(θ)=1,a(θ)为来自波达方向θ的发射信源方向矢量;

Capon算法使噪声以及来自非θ方向的任何干扰所贡献的功率最小,并保持在观测方向θ上的信号功率不变。最优权矢量wCAP采用Lagrange乘子法求解:

其中,aH(θ)为a(θ)的共轭转置,结合约束条件,得到包含各个目标的空间谱PCAP

对每帧数据都进行空间谱计算后,采用帧差法进行动目标显示,初步分离出道路上的各个运动车辆后,采用单元平均恒虚警检测器进行杂波抑制,确定车辆所在位置,获取各探测帧内的车流量信息;

采用CA-CFAR对空间谱中的各个点进行检测,固定虚警概率为在检测单元周围取L点作为参照单元记为c(l),则门限因子α为:

得到检测阈值TH为:

通过阈值划分得到多帧内的多目标位置,并根据扩展卡尔曼滤波进行航迹关联,获取车辆的行进轨迹。

进一步地,步骤S2中基于S1中获取的各个车辆所在的距离门位置,在原始雷达回波中通过在距离维和多普勒维的傅里叶变换获取到车辆的实时行进速度信息,并将速度与每个位置上的车辆一一对应,具体包括:

在原始雷达回波中通过在距离维和多普勒维的傅里叶变换,确定各个距离上多普勒维最大值所在的频率,即各个车辆的多普勒频率fd,获取到车辆的实时行进速度v=2fd/λ,并将速度与每个位置上的车辆一一对应。

进一步地,步骤S3中标定毫米波雷达测量数据与能见度之间的函数关系,具体包括:

其中,ki为散射消光系数,ri为粒子半径,ni为半径为ri的粒子数量;

雷达反射率因子Z与ri,ni的关系为:

Z=∑ini(2ri)6

进一步地,步骤S4中图像处理算法包括:

采用OpenCV库通过Features2D和Homography查找已知对象,识别出视频图像中的动目标,再对视频中的车辆与行人目标进行分类,完成对监控数据的车辆识别、计数和态势显示,并实时判断道路是否发生拥堵、事故、道路结冰状况。

进一步地,步骤S7中根据S1至S6中的多传感器数据构建数据集,并结合卷积神经网络进行多传感器数据融合,以实现对道路环境的综合认知判断,具体包括:

将数据集输入卷积神经网络进行多传感器信息融合;

卷积神经网络包括2个卷积层,2个池化层,采用ReLU激活函数;

训练标签包括交通事件、气象信息,结合直接获取的道路环境数据,完成对道路环境的综合认知判断。

进一步地,卷积神经网输入数据包括毫米波雷达探测到的车流量、车速、全天时能见度、道路积水、积雪、结冰情况,视频传感器探测到的视频图像,能见度传感器获取的能见度数据,以及气象6要素传感器获取的风速、温度、湿度、气压、雨量、光照6要素实时气象数据;

输出数据包括交通事件、气象信息,结合直接获取的道路环境数据,完成对道路环境的综合认知判断。

本发明提供的基于多传感器信息融合的道路环境综合认知方法,具有以下有益效果:

本发明综合利用多种传感器设计一种在多变外界环境中,基于多种传感器信息融合,综合利用各种环境信息,可全天时、全天候工作,低成本、高准确度的道路环境综合认知。

附图说明

图1为基于多传感器信息融合的道路环境综合认知方法的原理框图。

具体实施方式

下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

参考图1,本方案的基于多传感器信息融合的道路环境综合认知方法,包括以下步骤:

步骤S1、配置毫米波雷达参数,根据回波数据完成测距和测角,采用帧差法显示动目标,初步分离出道路上的各个运动车辆后,采用恒虚警检测进行杂波抑制,确定车辆所在位置,并获取各探测帧内的车流量信息;对于多帧内的多目标进行航迹关联,获取车辆的行进轨迹,其具体包括:

确定雷达配置参数,雷达带宽B、单脉冲重复周期内的采样点个数N按照下式计算:

其中,Rres为距离分辨率,c为真空中的光速3×108m/s;

经过低通滤波器后得到回波信号与发射信号的差频信号Sb,在其距离向快时间做傅里叶变换(FFT)实现去调频处理(De-chirp)得到差频fIF,经过频率与距离的换算完成高精度测距:

其中,d为目标所在距离,k为调频斜率;

再配合capon算法完成高精度测角,Capon算法求解的优化问题可以表述为:

其中,w为权矢量,R为雷达天线接收信号的协方差矩阵;

约束条件为wHa(θ)=1,a(θ)为来自波达方向θ的发射信源方向矢量。

最优加权向量可以用Lagrange乘子法求解:

将该式代入约束条件可以得到空间谱:

进而得到包含各个目标的空间谱。

对每帧数据都进行该操作后,使用帧差法实现动目标显示,初步分离出道路上的各个运动车辆后,使用单元平均恒虚警检测器(CA-CFAR)实现杂波抑制,确定车辆所在位置,获取各探测帧内的车流量信息。

采用CA-CFAR对空间谱中的各个点进行检测,固定虚警概率为在检测单元周围取L点作为参照单元记为c(l),则门限因子为:

可以得到检测阈值为:

通过阈值划分可以得到多帧内的多目标位置,再通过扩展卡尔曼滤波进行航迹关联,获取车辆的行进轨迹。

步骤S2、基于S1中获取的各个车辆所在的距离门位置,在原始雷达回波中通过在距离维和多普勒维的傅里叶变换获取到车辆的实时行进速度信息,并将速度与每个位置上的车辆一一对应,其具体包括:

在原始雷达回波中通过在距离维和多普勒维的傅里叶变换,找到各个距离上多普勒维最大值所在的频率,即各个车辆的多普勒频率fd,从而获取到车辆的实时行进速度v=2fd/λ,实现高精准实时测速,并将速度与每个位置上的车辆一一对应。

步骤S3、标定毫米波雷达测量数据与能见度之间的函数关系,其具体包括:

为了获得能见度参数,首先标定毫米波雷达测量数据与能见度之间的关系。能见度由消光系数σ唯一确定,其值与空气中粒子总量即各粒子大小有关,表示为:

其中,ki表示散射消光系数,ri表示粒子半径,ni表示半径为ri的粒子数量;雷达反射率因子Z与ri,ni的关系表示为:

Z=∑ini(2ri)6

因此,可以将雷达反射率因子作为表征能见度的依据,雷达反射率因子与能见度的关系在人工模拟实验室室内或室外进行标定,毫米波雷达放置在固定位置,角度反射镜放置在与雷达固定距离远处,发射雷达波经模拟空气环境照射到角反射器,反射后的回波经过模拟空气环境后由雷达接收,记录模拟空气环境下雷达反射率因子的相关数据,并可以由路面对回波的反射情况判断道路积水、积雪、结冰情况。

步骤S4、配置数字摄像头并结合数字图像处理算法,对监控数据进行车辆识别、计数和态势显示,实时判断道路是否发生拥堵、事故或道路结冰状况;当能见度低于阈值时,其具体包括:

安装数字摄像头,调整角度,连接与配置好计算机的端口后进行监控数据传输,实现本地收发数据和远程收发数据,在上位机实时显示监控视频信息

结合数字图像处理算法,使用OpenCV库通过Features2D和Homography查找已知对象,识别出视频图像中的动目标,再对视频中的车辆与行人目标进行分类,完成对监控数据的车辆识别、计数和态势显示,实时判断道路是否发生拥堵、事故、道路结冰状况。

在能见度状况极差和光照严重不足时,以步骤S1~S3中的毫米波雷达数据为主。

步骤S5、安装配置好能见度传感器,连接与配置好计算机端口,实现本地收发数据和远程收发数据,实时传输至上位机软件提供准确的能见度数据,并在能见度异常时及时显示。

步骤S6、安装配置好气象6要素传感器,连接和配置好计算机端口,实现本地收发数据和远程收发数据,实时传输至上位机,提供风速、温度、湿度、气压、雨量、光照6要素实时气象数据。

步骤S7、通过步骤S1~S6获得的多传感器数据,构建数据集。

数据集中的参数包括毫米波雷达探测到的车流量、车速、全天时能见度、道路积水、积雪、结冰情况,视频传感器探测到的视频图像,能见度仪获取的能见度数据,以及气象6要素传感器获取的风速、温度、湿度、气压、雨量、光照6要素实时气象数据输入卷积神经网络实现多传感器信息融合。

卷积神经网络包括2个卷积层,2个池化层,使用ReLU激活函数。

训练标签包括交通事件、气象信息,结合直接获取的道路环境数据,完成对道路环境的综合认知判断。

卷积神经网输入数据包括毫米波雷达探测到的车流量、车速、全天时能见度、道路积水、积雪、结冰情况,视频传感器探测到的视频图像,能见度传感器获取的能见度数据,以及气象6要素传感器获取的风速、温度、湿度、气压、雨量、光照6要素实时气象数据。

输出数据包括交通事件、气象信息,结合直接获取的道路环境数据,完成对道路环境的综合认知判断。

人工神经网络的跨层连接与数据融合模型非常相似,是一种完全并行的结构。它是一种能够实现多输入信号融合的超大规模并行信息融合处理系统。经过训练后,模型可以通过其他测量过程中获得的多传感器数据快速计算出相应的能见度数据。

本发明基于能见度传感器、气象6要素传感器、毫米波雷达和视频传感器,构建道路环境综合认知的神经网络模型,以实现对对道路环境的综合认知判断。

其中,毫米波雷达具有良好的环境普适性,覆盖范围广,且分辨率高,穿透性强,可以实现全天时、全天候工作,非常适用于道路环境认知,提供远距离高精度的车流量、行车速度、地面积水结冰,并且可以提供能见度信息。

视频传感器以数字图像和视频流为主,虽然受光照和天气条件影响较大,但更加贴近人眼所见,识别精度和准确率一般高于毫米波雷达传感器,可以直观提供车流量、天气情况和道路积水结冰情况,与毫米波雷达传感器配合使用,完成对当前道路环境的综合检测。

同时,配合能见度仪和气象6要素传感器测量精确的气象信息,提高检测和最终的识别准确率和认知效果。

本发明最终通过上述传感器数据融合方法,完成对道路环境的综合认知判断,并向交通管理部门提供限速、环境风险、交通事件、交通时间可能发生原因等信息,实现道路自动化、智能化、高准确性管理。

虽然结合附图对发明的具体实施方式进行了详细地描述,但不应理解为对本专利的保护范围的限定。在权利要求书所描述的范围内,本领域技术人员不经创造性劳动即可做出的各种修改和变形仍属本专利的保护范围。

11页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:一种基于轨迹判断的毫米波雷达手势识别方法及装置

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!

技术分类