华东师范大学孙翊铭获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华东师范大学申请的专利基于特征压缩与特征编码网络的无人机对地目标跟踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115393742B 。
龙图腾网通过国家知识产权局官网在2026-02-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210956096.3,技术领域涉及:G06V20/17;该发明授权基于特征压缩与特征编码网络的无人机对地目标跟踪方法是由孙翊铭;赵静;董园;王俊萍设计研发完成,并于2022-08-10向国家知识产权局提交的专利申请。
本基于特征压缩与特征编码网络的无人机对地目标跟踪方法在说明书摘要公布了:本发明公开了一种基于特征压缩与特征编码网络的无人机对地目标跟踪方法。在目标特征建模方面,该方法提出了基于注意力的特征压缩网络和特征编码网络,相较于其他跟踪方法,该方法利用时间信息弥补了由无人机对地目标分辨率低造成的空间信息不足,增加了对运动模糊、目标遮挡等极端环境的鲁棒性;在跟踪速度方面,相较于其他基于注意力的跟踪方法,该方法对特征进行压缩,降低了计算复杂度和存储空间需求,对算力有限的无人机平台更加友好。
本发明授权基于特征压缩与特征编码网络的无人机对地目标跟踪方法在权利要求书中公布了:1.一种基于特征压缩与特征编码网络的无人机对地目标跟踪方法,其特征在于,包括如下步骤: 步骤1:对于给定的模板图像,利用特征提取骨干网络进行特征提取,得到模板特征向量;具体是:将所述模板图像输入骨干网络得到模板特征向量fz,其中Hz0,Wz0为输入模板图像高度与宽度; 步骤2:对于视频中第t帧搜索图像,利用特征提取骨干网络进行特征提取,得到第t帧搜索区域特征向量;具体是:将所述第t帧搜索图像输入骨干网络得到第t帧搜索区域特征向量其中Hx0,Wx0为搜索图像高度与宽度; 步骤3:将步骤1提取的模板特征向量输入模板特征压缩网络,得到压缩模板特征向量具体为: 首先对模板特征向量fz在空间维度上进行展平操作,得到展平后的模板特征向量fz1;对fz1进行多头交叉注意力计算,其计算式为: 其中是对fz1的位置编码,dz为模板特征向量中每个特征的维度,Nz为模板特征向量中特征的数目,为模板压缩嵌入向量,的维度为为压缩后模板特征的数目,为压缩模板特征向量,的维度为MultiHead为多头注意力机制;多头注意力机制的计算式如下: 其中Q,K,V为多头注意力机制的输入,W为学习参数矩阵,Cat.表示空间维度的拼接操作,Hi表示第i个注意力的计算结果,其计算如下: 其中softmax.为概率归一化函数,为学习参数矩阵; 步骤4:将第t-1帧搜索区域特征向量输入搜索区域特征压缩网络,得到压缩搜索区域特征向量具体为: 首先对在空间维度上进行展平操作,得到对进行多头交叉注意力计算,其计算式为: 其中Pres是对的位置编码,Pres的维度为dx为搜索区域特征向量中每个特征的维度,Nx为搜索区域特征向量中特征的数目,为搜索区域压缩嵌入向量,的维度为为压缩后搜索区域特征的数目,为压缩搜索区域特征向量,的维度为MultiHead为多头注意力机制; 步骤5:将步骤3得到的压缩模板特征向量步骤2提取的第t帧搜索区域特征向量和步骤4得到的压缩搜索区域特征向量输入基于注意力的特征搜索网络,得到搜索区域特征响应向量fres;具体为: 所述基于注意力的特征搜索网络由特征编码网络和特征解码网络构成;首先对搜索区域特征向量压缩搜索区域特征向量和压缩模板特征向量在空间维度上进行拼接操作,得到特征编码网络的输入ffeat;先对ffeat进行如下式的多头自注意力计算:随后将输入前馈网络得到特征编码网络输出其中将其在空间维度拆分得到编码的模板特征向量编码的压缩搜索区域特征向量和编码的搜索区域特征向量具体为fenc=Catftemp,ftem,fscr;特征编码网络以编码的模板特征向量ftemp和编码的搜索区域特征向量fscr为输出; 所述特征解码网络以编码的模板特征向量ftemp和编码的搜索区域特征向量fscr为输入;随后以ftemp为键值输入,fscr为查询值输入进行交叉注意力计算,具体为: fscr1=fscr+MultiHeadftemp+Ptemp,ftemp+Ptemp,fscr, 其中Ptemp是对ftemp的位置编码,MultiHead为多头注意力机制;随后将fscr1输入前馈网络得到特征解码网络输出的搜索区域特征响应向量fres,计算如下:fres=fscr1+FFNfscr1,其中FFN为前馈网络; 步骤6:将搜索区域特征响应向量fres输入预测网络,得到跟踪结果;具体为: 首先对搜索区域特征响应向量进行维度变换,得到空间维度数为2的搜索区域特征响应向图其中Hx0,Wx0为搜索区域特征响应向图的高度和宽度,Hx0=Wx0,Hx0×Wx0=Nx;所述预测网络为全卷积神经网络,具体为:fmap=FCNfres2,其中FCN.为全卷积神经网络,为全卷积神经网络的输出;随后对fmap在特征维度进行拆分操作,得到左上角的角点概率图与右下角的角点概率图最后通过对左上角的角点概率图和右下角的角点概率图进行数学期望计算,得到跟踪结果,其坐标为其中分别为目标的左上角横坐标,左上角纵坐标,右下角横坐标,右下角纵坐标;数学期望计算具体为:其中为求和符号。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华东师范大学,其通讯地址为:200241 上海市闵行区东川路500号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励