北京工业大学刘芳获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京工业大学申请的专利基于特征融合和稀疏注意力的无人机目标跟踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119205845B 。
龙图腾网通过国家知识产权局官网在2025-10-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411374896.X,技术领域涉及:G06T7/246;该发明授权基于特征融合和稀疏注意力的无人机目标跟踪方法是由刘芳;黄涛设计研发完成,并于2024-09-29向国家知识产权局提交的专利申请。
本基于特征融合和稀疏注意力的无人机目标跟踪方法在说明书摘要公布了:本发明公开了基于特征融合和稀疏注意力的无人机目标跟踪方法,包括以下步骤:为使跟踪器能够直接关注于重要的空间区域,同时又避免增大计算量,选择使用改进的Res2NeXt来获取多尺度特征,学习目标特征的通道相互依赖性和空间相互依赖性,自适应进行融合,增强了特征表示。使用自我上下文增强模块和交叉特征模块,既能自适应地专注于有用的语义上下文信息来进行特征增强,又能接受各每个分支的特征图进行融合。引入回归和分类模型作为预测头来对目标模板进行预测。本发明方法能够解决无人机目标遮挡,小目标的问题,提高模型对局部特征处理的能力,有效提高了跟踪算法的准确度。
本发明授权基于特征融合和稀疏注意力的无人机目标跟踪方法在权利要求书中公布了:1.基于特征融合和稀疏注意力的无人机目标跟踪方法,其特征在于:该方法包括以下步骤, S1:选取无人机采集的与所要跟踪目标有关的图像序列,对Am-Res2Next网络进行预训练;所述预训练的方法如下: S1.1:三十二个Am-Res2Net模块和一个残差连接构建Am-Res2Next网络; S1.2:先将输入分为32个分支用于进行分组卷积;第一层采用1x1的卷积核将通道数降到4,在第二层卷积层中,输入32个分支各自按通道数划分x个小分支,每个xi作为Am-Res2Net模块的输入;第三层将每一个小分支进行3×3卷积操作,并输出为yi; S1.3:将yi特征进行快速归一化的方式计算特征权重融合,得到融合目标特征图y; S2:设计由Sparse-Transformer网络组成Siamese结构的特征增强和融合分支,构造损失函数,对响应图的位置点进行了正负样本区分,设计针对于每个点的损失函数; S3:采用全部点的损失均值作为响应图的整体损失,并输入的已标注图像,利用损失均值计算损失并采用SGD算法进行网络权重优化; S4:将视频预处理后转化为图像帧输入系统,并读入第1帧; S5:利用模板分支的Am-Res2Next骨干网络提取第1帧目标图像特征,并将后三层输出融合得到模板特征fexemplar; S6:读取下一帧,利用搜索分支提取当前帧目标特征fsearch; S7:分别将当前帧目标特征fexemplar和模板特征finstance送入Sparse-Transformer网络中去,将两分支的特征通过自我上下文模块和交叉特征模块进行特征增强; S8:在特征增强双分分支中的特征图再次送入交叉特征模块中进行特征增强,通过多次重复特征互增强与聚合网络的过程,获取更具判别性的特征; S9:利用预测头对特征图像进行分类和回归分类,分数最大的窗口即为跟踪目标; S10:重复S5-S9直到处理完全部无人机视频帧,得到并输出视频跟踪结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京工业大学,其通讯地址为:100000 北京市朝阳区平乐园100号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励