电子科技大学杨海芬获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉电子科技大学申请的专利一种用于道路视频流车辆监控的轻量化多目标检测与跟踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116863416B 。
龙图腾网通过国家知识产权局官网在2026-01-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310840004.X,技术领域涉及:G06V20/54;该发明授权一种用于道路视频流车辆监控的轻量化多目标检测与跟踪方法是由杨海芬;蒋贤皓;金嗣东;吴颛宇设计研发完成,并于2023-07-10向国家知识产权局提交的专利申请。
本一种用于道路视频流车辆监控的轻量化多目标检测与跟踪方法在说明书摘要公布了:本发明公开了一种用于道路视频流车辆监控的轻量化多目标检测与跟踪方法,用于道路视频流车辆监控,属于计算机视觉领域。该轻量化多目标检测与跟踪算法模型中,使用了轻量级骨干网络降低模型的复杂度以及参数量。为了弥补轻量化骨干网络带来的精度下降,本发明引入自适应激活函数对C3模块进行改进,设计出了Meta‑C3模块。此外,本发明引入Adaface损失作用于特征提取分支来增强网络对于不同车辆目标的分辨能力,进一步提升了网络的性能。本发明针对道路视频监控场景中目标易于识别的特点,设计出轻量化的多目标检测与跟踪算法,降低了传统算法对于设备算力的要求,实现了算法的边缘节点的部署,具有良好的实际应用价值。
本发明授权一种用于道路视频流车辆监控的轻量化多目标检测与跟踪方法在权利要求书中公布了:1.一种用于道路视频流车辆监控的轻量化多目标检测与跟踪方法,该方法包括: 步骤1:构建训练和测试用数据集样本;基于UA-DETRAC数据集,选取其中80段视频作为训练集,20段视频作为测试集; 步骤1.1:读取原始图片文件以及每段视频对应的标签文件,修改目录结构以适应本文使用的数据加载器,并存入缓存待后续步骤使用; 步骤1.2:解析每段视频所对应的xml标签文件,根据标签文件中标注的忽略区域,对该段视频逐帧进行遮挡屏蔽,并将完成预处理的图重新命名后存入数据集文件夹中待用; 步骤1.3:对于每段视频所对应的xml标签文件,逐帧解析该帧所包含的目标信息,并按照规定格式为每一帧存储独立标签文件; 步骤1.4:遍历标签文件所在的文件夹以及图片文件所在的文件夹,比对两个文件夹内的文件数量,并根据标签文件判断对应视频帧中是否含有待识别目标,删除没有识别目标的空视频帧; 步骤1.5:对于测试集,跟踪性能指标的判定需要特殊的真值标签文件;对每段测试集视频使用原始标签文件生成用于评价的真值文件; 步骤2:构建多目标检测与跟踪神经网络; 所述多目标检测与跟踪神经网络包括:CBRM模块、骨干网络、特征融合网络、输出头部,所述CBRM模块为一个包括:3x3卷积层、BN层、ReLU层、MaxPool层的特征提取模块; 所述骨干网络依次包括:第一shuffle-block2模块、第一shuffle-block1模块、第二shuffle-block2模块、第二shuffle-block1模块、第三shuffle-block1模块、第三shuffle-block1模块; 所述特征融合网络包括:第一Meta-C3模块、第一concat模块、第二Meta-C3模块、第一Upsample模块、第二concat模块、第三Meta-C3模块、第三concat模块、第四Meta-C3模块;所述骨干网络中第三shuffle-block1模块的输出作为第一Meta-C3模块的输入,所述第二shuffle-block1模块和第一Meta-C3模块的输出共同作为第一concat模块的输入,所述第一concat模块的输出依次经过第二Meta-C3模块、第一Upsample模块;然后第一shuffle-block1模块和第一Upsample模块的输出共同作为第二concat模块的输入,第二concat模块的输出作为第三Meta-C3模块的输入,所述第一Upsample模块和第三Meta-C3模块的输出共同作为第三concat模块的输入,第三concat模块的输出作为第四Meta-C3模块的输入,第四Meta-C3模块的输出连接输出头部; 所述输出头部包括4个输出头,每个输出头包括:3x3卷积层、ReLU层、1x1卷积层; 其中,CBRM模块由3x3卷积层、批标准化层、激活函数层、最大池化层依次连接而成,Shuffle-block来源于ShuffleNetV2网络,其中Shuffle-block1模块是由通道拆分层、深度可分离卷积层、通道打乱层构成,而Shuffle-block2模块则是由深度可分离卷积层和通道打乱层构成,Meta-C3模块基于C3模块结构,使用ACON系列激活函数改进而来,Concat模块对输入特征进行拼接操作后输出,Upsample模块对输入特征进行上采样操作后输出; 步骤3:训练多目标检测与跟踪网络并引入Adaface损失; 步骤3.1:所述多目标检测与跟踪网络的损失函数由四部分组成,分别为: 热力图损失的Focal损失Lheatmap、中心偏执损失的正则重构损失Loffset、目标宽高损失的正则重构损失Lwh、以及针对目标重识别特征分支引入的Adaface损失LReID;因此,结合多任务训练时的各分支权重系数τ,框架最终损失函数为: Ltotal=Lheatmap+τoffsetLoffset+τwhwh+τReIDReID 步骤3.2:为了获得多目标检测与跟踪网络最优的网络参数,随机选取一批训练数据集输入网络;计算损失函数Ltotal,使用Adam优化器对多任务学习网络参数进行优化; 步骤4:采用训练好的多目标检测与跟踪网络进行测试集的测试。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人电子科技大学,其通讯地址为:611731 四川省成都市高新区(西区)西源大道2006号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励