湖南大学凌志刚获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉湖南大学申请的专利基于多层解耦注意力定位网络的弱监督目标定位方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116935132B 。
龙图腾网通过国家知识产权局官网在2025-09-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310926333.6,技术领域涉及:G06V10/764;该发明授权基于多层解耦注意力定位网络的弱监督目标定位方法及系统是由凌志刚;张傲然;王耀南设计研发完成,并于2023-07-26向国家知识产权局提交的专利申请。
本基于多层解耦注意力定位网络的弱监督目标定位方法及系统在说明书摘要公布了:本发明公开了一种基于多层解耦注意力定位网络的弱监督目标定位方法及系统,该方法包括:步骤1:构建多层解耦注意力定位网络;步骤2:获取训练集图像的CAM集,得到训练集图像的伪标签集;步骤3:获得类别无关的多层解耦注意力定位网络模型;步骤4:利用类别无关的多层解耦注意力定位网络模型获取目标位置;步骤5:利用额外分类器,识别待定位图像中目标定位框里目标的类别;采用多层解耦注意力定位网络,同时简单且高效地完成CAM生成阶段和类别无关的分割阶段的任务;在通道和空间注意力模块中引入多层最大解耦函数,以获取更多可能的目标区域;引入最小解耦函数到多层特征融合,以抑制过度激活和噪声区域,解决边缘检测不准确的问题。
本发明授权基于多层解耦注意力定位网络的弱监督目标定位方法及系统在权利要求书中公布了:1.一种基于多层解耦注意力定位网络的弱监督目标定位方法,其特征在于,包括: 步骤1:构建多层解耦注意力定位网络; 步骤2:利用多层解耦注意力定位网络,获取训练集图像的CAM集,并对CAM集进行分割,得到训练集图像的伪标签集; 步骤3:采用训练集图像的伪标签集作为监督信息,训练多层解耦注意力定位网络,获取类别无关的多层解耦注意力定位网络模型; 步骤4:利用类别无关的多层解耦注意力定位网络模型获取待定位图像中目标掩码,并利用边界框获取目标掩码的目标定位框,得到目标位置; 步骤5:利用已知训练集图像和图像级标签,训练额外分类器,利用训练好的额外分类器,识别待定位图像中目标定位框里目标的类别; 所述多层解耦注意力定位网络包括主干网络以及串联在主干网络后的两个并联的特征融合网络; 所述两个并联的特征融合网络为通道分支融合网络和空间分支融合网络; 所述通道分支融合网络包括依次连接的通道注意力激活解耦模块和多层最小解耦特征融合模块; 所述空间分支融合网络包括依次连接的空间注意力激活解耦模块和多层最小解耦特征融合模块; 所述通道注意力激活解耦模块是通过引入多层最大解耦函数到通道注意力模块得到的; 所述空间注意力激活解耦模块是通过引入多层最大解耦函数到空间注意力模块得到的; 所述多层最小解耦特征融合模块是通过引入多层最小解耦函数到多层特征的融合过程得到的; 在给定统一尺度的深层特征X、中层特征Y和浅层特征Z的情况下,所述多层最大解耦函数公式为: 式中,max为逐元素最大值计算,“·”为对特征图的逐元素相乘计算;和分别表示深层、中层和浅层的融合图像特征; 多层最小解耦特征融合模块是通过引入多层最小解耦函数到多层特征的融合过程,具体融合公式如下: 其中,min为逐元素最小值计算,表示多层最小解耦特征融合后的特征图,i,j表示像素点的横、纵坐标,H为特征图的高,W为特征图的宽;min为逐元素最小值计算,“·”为对特征图的逐元素相乘计算;Xsi,j·Ysi,j和Zsi,j分别表示经过卷积和上采样统一尺度为C′×H×W的深层、中层和浅层图像特征,C′为设定值。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南大学,其通讯地址为:410083 湖南省长沙市岳麓区麓山南路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励