东南大学李志斌获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉东南大学申请的专利耦合车队跟驰强化的多孪生对抗网络跨相机车辆追踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114463390B 。
龙图腾网通过国家知识产权局官网在2025-07-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210027047.1,技术领域涉及:G06T7/292;该发明授权耦合车队跟驰强化的多孪生对抗网络跨相机车辆追踪方法是由李志斌;冯汝怡;郑思;邱开来;杨逸飞设计研发完成,并于2022-01-11向国家知识产权局提交的专利申请。
本耦合车队跟驰强化的多孪生对抗网络跨相机车辆追踪方法在说明书摘要公布了:本发明公开了耦合车队跟驰强化的多孪生对抗网络跨相机车辆追踪方法,包括:训练目标检测神经网络和图像标准化对抗网络,分别用于提取目标位置和图像标准化;上述网络多重孪生用于多线程多监控视频同步处理;提取车辆轨迹,获取车辆队列跟驰运动特征与各车辆形态特征;划分车辆跟驰状态,构建动态车队特征提取模型;融合车辆运动、交通状态传播及摄像机空间分布,建立车辆时空预测迭代式;融合动态车队模型与队内车辆形态分布特征,实现多监控下车队群体跨相机匹配;并对动态车队内个体依次追踪编号,完成车辆跨相机追踪。对抗网络排除了背景与视角干扰,跟驰特性与动态车队模型为重识别增加稳定时空约束,极大提升了重识别效果。
本发明授权耦合车队跟驰强化的多孪生对抗网络跨相机车辆追踪方法在权利要求书中公布了:1.耦合车队跟驰强化的多孪生对抗网络跨相机车辆追踪方法,其特征在于,包括如下步骤: S10,搭建获取目标特征信息的基本网络,并制作数据集,训练基本网络;所述基本网络包括用于目标检测的神经网络以及用于图像标准化的对抗网络;所述数据集包含目标检测数据集和图像标准化数据集;所述目标检测包括获取车辆位置及车辆大小;所述图像标准化包括姿态变换与背景去除; S20,多重孪生上述基本网络,用于多线程多监控视频同步处理; S30,在多重孪生的基本网络中构建轨迹实时提取模型,利用车辆运行的时间位置关系追踪不同帧之间相同目标并赋予目标序号,截取视频中轨迹图像,以轨迹为目标单位,通过对抗网络提取车辆形态特征并强化车辆形态特征;具体过程如下: S31,保留视频中前一帧所有车辆目标位置,记为集合P0,获取当前帧中所有车辆目标位置,记为集合P1,目标位置由训练完成的神经网络检测结果得到,令集合P1中待判定重复的当前车辆目标位置px,y,l,w; S32,对集合P1与集合P0中的矩形元素总体求交并比,交并比IoU计算表示如下: IoU=AinterAunion 其中,Ainter表示两集合中矩形相交部分的面积,Aunion表示两集合中矩形并集总面积; S33,对集合P1中IoU为0的目标,认为其为当前帧中的新增目标单独赋予新增车辆序号,其余目标执行S34; S34,将集合P1中所有求得IoU不为0的目标与集合P0中的元素送入匈牙利算法,进行多目标追踪,匈牙利算法中采用马氏距离作为目标之间的距离差,马氏距离计算方式如下: 其中,DM为向量对于其分布平均值的马氏距离,C为向量分布的协方差矩阵,计算过程中,为车辆移动像素向量x0,y0、x1,y1分别为上一帧和当前帧的车辆目标位置; S35,对于集合P1中IoU不为0的目标,若追踪成功则将集合P1中的追踪成功的目标赋予与之对应的车辆序号,若未追踪成功则赋予新增车辆序号; S36,截取成功追踪目标图像,采用GFLA对抗网络强化形态特征;根据S10训练的特征强化权重,调用网络中的局部注意力机制,对图片像素遍历进行主要特征识别; S37,判定强化后的形态特征是否为背景,是则对采样区域模糊处理,否则保留原像素形态,输出图像;其中模糊处理采用高斯模糊,计算如下: 其中,Gr表示高斯模糊函数,r为模糊半径,此处取采样区域大小的一半,σ为采样区域标准差; S38,加入时间序列融合同一目标各帧图像特征向量,通过采用3×3和2×2的小卷积核将S37输出图像变为对应一维特征向量;带有相同目标标签的多个特征向量将按如下公式依次合并: 其中,F为合并之后的特征向量即车辆形态强化特征向量,Fi为第i个待合并特征向量,confi为第i个待合并特征向量对应的置信度,n表示目标车辆在视频中出现的总帧数即特征总数,CONF为合并特征向量对应的合并置信度,confi-1为第i-1个待合并特征向量对应的置信度; S39,根据合并之后的特征向量F调用GFLA生成器,生成S10中训练的标准姿态图像,完成特征强化; S40,根据车辆轨迹实时解析车辆运动,划分车辆跟驰状态,提取跟驰行为时序特征,将目标车辆分为跟驰状态车与自由状态车,构建动态车队模型,记录目标车所属车队跟驰特征与车辆形态分布特征; S50,建立融合动态车队运动特征、整体交通流状态以及多监控分布的时空位置预测旅行时间的迭代式,预测车队跨相机出现时空位置;具体过程如下: S51,计算各监控视频中车辆平均速度,参考监控所在道路里程点,拟合整段道路中平均速度分布曲线 S52,以车辆平均速度分布曲线取倒数,得到单位路段内车辆通行所用时间与整段道路里程分布的关系曲线Tdu-X,记为 S53,由于驾驶员反应时间,交通波随时间向上游转递,下游状态跟随交通波向上游转移,预测此转移,即计算Tdu-X随时间序列t的平移变化速度Vwavet: ΔX=t×Vwavet 其中,ΔX为交通状态动态平移里程,则有: S54,形成计算动态车队中典型目标车在整段道路经历时间的迭代式: Xtk+1=Xtk+vit×Δt vit为车辆i在t时刻的速度值,Xtk+1为迭代k+1次时的车辆位置,Xtk为迭代k次时的车辆位置,为第k+1次迭代中车辆所在位置对应的车辆通行所用时间,从关系曲线Tdu-X中获取,为第k次迭代中车辆所在位置对应的车辆通行所用时间; 迭代两式至X到达需要预测的空间位置或t到达需要预测的时间,则停止迭代,计算典型车辆i总旅行时长ATdu,i: 其中,k为当前迭代次数;N为总迭代次数,取覆盖匹配间隙区域长度的次数为N,Δt为迭代步长时间间隔,ATdu,i表示车辆i在整段道路经历的行驶时间总和; S55,根据车队跟驰次序i等距选取车队中典型车辆,记间隔数为K,计算迭代结果ATdu,i预估此K辆车通过匹配间隙里程的行驶时间; S60,融合动态车队跟驰特性、所预测的车队跨相机出现时空位置与所获取队内车辆形态分布特征,实现多监控下车队群体跨相机匹配; S70,基于群体跨相机匹配结果,对动态车队内个体对应目标形态特征分布依次追踪编号,完成车辆跨相机追踪。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东南大学,其通讯地址为:210096 江苏省南京市玄武区四牌楼2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。