北京航空航天大学屠展获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京航空航天大学申请的专利一种基于Transformer网络的遮挡目标空地协同追踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116466586B 。
龙图腾网通过国家知识产权局官网在2025-09-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310422950.2,技术领域涉及:G05B13/04;该发明授权一种基于Transformer网络的遮挡目标空地协同追踪方法是由屠展;崔阳洁;董鑫;李道春设计研发完成,并于2023-04-19向国家知识产权局提交的专利申请。
本一种基于Transformer网络的遮挡目标空地协同追踪方法在说明书摘要公布了:本发明涉及基于Transformer网络的遮挡目标空地协同追踪方法,属于无人驾驶系统协同目标追踪技术领域,解决了现有技术中无法追踪遮挡目标的问题,提高了目标追踪任务的鲁棒性。本发明的方法利用陆空协同视角优势,在追踪过程中单独保持视野中对目标的跟踪状态,同时,陆、空平台各自具备目标被部分遮挡的情况下的准确识别能力,使得在智能体中一方视野的追踪目标被部分遮挡时,另一方定位该追踪目标,帮助丢失追踪目标的智能体在视野中重新定位目标。增强了目标追踪时在目标形变、遮挡、背景相似等干扰下的鲁棒性。
本发明授权一种基于Transformer网络的遮挡目标空地协同追踪方法在权利要求书中公布了:1.一种基于Transformer网络的遮挡目标空地协同追踪方法,其特征在于,具体步骤如下: 步骤1、构建目标追踪网络模型;将目标追踪网络模型部署于空地协同智能体的无人机和无人车;目标追踪网络模型包括VGG特征提取网络、Transformer特征增强网络和预测网络; 步骤2、分别在无人机和无人车的初始帧图片中选取追踪目标;选取的追踪目标所在目标区域作为目标模板; 步骤3、根据上一帧图片中追踪目标所在的目标区域确定下一帧图片的目标搜索区域;将目标模板与搜索区域拼接获得拼接特征向量; 步骤4、使用目标追踪网络模型的VGG特征提取网络提取拼接特征向量的特征获得初选特征向量; 步骤5、使用目标追踪网络模型的Transformer特征增强网络提取初选特征向量获得增强的特征向量; 步骤6、使用目标追踪网络模型的预测网络处理增强特征向量获得包含追踪目标的最小矩形框在当前帧中的像素位置; 步骤7、将追踪目标的像素位置从像素坐标系转换到世界坐标系; 步骤8、使用步骤7获得的追踪目标和空地智能体在世界坐标系下的坐标位置,基于视觉伺服进行无人机和无人车的跟踪控制; 步骤9、基于步骤8获得的无人机和无人车的跟踪控制进行单独目标跟踪和空地协同追踪控制。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100191 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。