西北工业大学李学龙获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉西北工业大学申请的专利一种低空飞行器视角的目标跟踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115880332B 。
龙图腾网通过国家知识产权局官网在2025-07-22发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211453407.0,技术领域涉及:G06T7/246;该发明授权一种低空飞行器视角的目标跟踪方法是由李学龙;刘康;晁超超设计研发完成,并于2022-11-21向国家知识产权局提交的专利申请。
本一种低空飞行器视角的目标跟踪方法在说明书摘要公布了:本发明涉及一种低空飞行器视角的目标跟踪方法,针对航空目标跟踪数据特点分析,设计特定状况下的特征提取与特征匹配的网络框架。同时在目标跟踪过程中,当移动目标发生短时的前景遮挡现象时,通过遮挡前的窗口下目标移动轨迹的计算,通过保持目标物体在遮挡下的位置估计,实现遮挡后准确的目标再跟踪。通过对低空飞行器视角的时空序列数据的分析,设计适应于其数据特点的骨干网络,得到耦合度低,丰富的目标空间和语义信息。在目标特征和模板特征的匹配过程中采用注意力机制来强化目标与模板的相似度,减少背景干扰,同时通过两层的特征融合进一步保证跟踪的准确。
本发明授权一种低空飞行器视角的目标跟踪方法在权利要求书中公布了:1.一种低空飞行器视角的目标跟踪方法,其特征在于步骤如下: 步骤1:利用无人机采集真实场景下的数据,在虚拟场景下的模拟低空飞行器视角的目标跟踪数据,最后在darklabel上进行数据的标注,建立真实虚拟的航空遥感数据集; 步骤2:对孪生网络最后两个卷积块的总步长修改降为8,在每个卷积块输出上添加额外的1×1卷积层来将特征通道降低为256; 以利用现有通用的目标跟踪数据集作为网络模型的训练数据,改进后的孪生网络的输入为目标模板和当前搜索帧的RGB图像,得到目标模板和搜索帧的特征图; 步骤3:将孪生骨干网络提取到的目标模板和当前帧的特征图进行压缩处理转换为一维表征,然后通过位置嵌入编码得到q,k;不进行处理的一维表征信息为v,输入特征融合模块在目标与模板的匹配阶段进行特征的加强; 所述特征融合模块分为时间的特征融合和空间的特征融合,具体为: 将前一帧目标模板特征图与当前帧目标模板信息输入到第一Transformer结构中,,其中当前帧目标模板信息输入到Transformer的decoder模块,将前一帧的目标模板特征的k,v随后输入进行特征匹配; 将当前搜索帧特征图与前一搜索帧特征图信息输入到第二Transformer结构中,其中当前搜索帧特征图输入到Transformer的decoder模块,将前一搜索帧特征图信息的k,v随后输入进行特征匹配; 将当前搜索帧特征图与当前帧目标模板信息到第三Transformer结构中,其中当前帧目标模板信息输入到Transformer的encoder模块,当前搜索帧特征图输入到Transformer的decoder模块,进行特征匹配; 将第一Transformer结构融合后的信息与第二Transformer结构融合后的信息输入第一多头交叉注意力模块融合,再与第二Transformer结构融合后的信息输入第一求和正则化模块融合,输入第一前馈神经网络融合;第一前馈神经网络的输出与第一求和正则化模块的输出同时输入第二求和正则化模块融合;第二求和正则化模块的输出与第三Transformer结构输出同时输入第二多头交叉注意力模块融合后,再与第三Transformer结构输出同时输入第三求和正则化模块融合,输入第二前馈神经网络融合;第二前馈神经网络的输出与第三求和正则化模块的输出同时输入第四求和正则化模块融合得到特征融合信息的输出; 步骤4:对步骤3得到的结果输入分类网络及回归网络,通过分类网络得到目标的中心位置,通过回归网络得到目标的大小; 步骤5:以公开的数据集对步骤2~步骤4的网络框架进行端到端训练; 步骤6:在线学习阶段,通过本帧前的若干帧的目标位置估算目标运动信息,实现低空飞行器视角的目标跟踪方法。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西北工业大学,其通讯地址为:710072 陕西省西安市友谊西路;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。