Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 武汉大学;长江勘测规划设计研究有限责任公司瞿响宇获国家专利权

武汉大学;长江勘测规划设计研究有限责任公司瞿响宇获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉武汉大学;长江勘测规划设计研究有限责任公司申请的专利一种基于类别修正的弱监督目标定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116342857B

龙图腾网通过国家知识产权局官网在2026-02-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310336796.7,技术领域涉及:G06V10/22;该发明授权一种基于类别修正的弱监督目标定位方法是由瞿响宇;杜博;王增茂;罗伊文;陈尚法;何向阳设计研发完成,并于2023-03-28向国家知识产权局提交的专利申请。

一种基于类别修正的弱监督目标定位方法在说明书摘要公布了:本发明属于计算机视觉领域,尤其涉及一种基于类别修正的弱监督目标定位方法。为了解决CAM技术的定位不准确的弊端,我们不再利用类别特征图进行定位,而采用由粗略到精细的流程。本发明的模型由主干网络、定位网络和分类网络组成,首先由定位网络利用无监督分割技术生成类别无关的分割图,从而确定目标物体的粗略位置。之后由分类网络再通过类别标签进行细粒度修正。此种基于类别修正的方法可以精准的定位物体,对于轮廓细节也可以进行很好的识别。

本发明授权一种基于类别修正的弱监督目标定位方法在权利要求书中公布了:1.一种基于类别修正的弱监督目标定位方法,其特征在于:包括训练阶段和测试阶段,其中训练阶段包括如下步骤: 步骤1,构建目标定位模型,所述目标定位模型包括主干网络,分类网络和定位网络,其中主干网络对输入图像进行特征提取,分类网络和定位网络是对偶的网络,对从主干网络提取的特征进行类别和掩码的预测; 步骤2,对输入图像I,生成和训练样本有分布相似性的合成图像Is以及前景掩码Ms,然后将合成图像Is输入目标定位模型中,得到定位网络预测的掩码 步骤3,图片级细定位阶段:增大图像层次中前景和背景之间的差异,让定位网络更精确的定位;包括以下子步骤: 步骤3.1,由步骤2训练好的具有粗略定位能力的定位网络得到真实图片Ir的前景掩码预测 步骤3.2,将前景掩码预测与真实图片Ir进行哈达玛积得到类别无关的前景注意力图像If,同时对前景掩码进行0-1转换为将真实图片Ir与进行哈达玛积得到类别无关的背景注意力图像Ib; 步骤3.3,分别将前景注意力图像If和背景注意力图像Ib送进分类网络进行预测,得到预测的概率特征以及 步骤4,特征级精细定位阶段:在图像级别的前景和背景差异得到放大之后,利用与步骤3中相同的方法增大特征层次前景和背景之间的差异,让定位网络进一步修正被错误定位的细节,输出最终的定位结果; 测试阶段的过程如下: 断开定位网络和分类网络的连接,通过对定位网络的前景掩码进行阈值筛选,得到最终的定位框: 其中表示测试样本通过定位网络预测得到的掩码,θ为筛选的阈值,Select函数选择大于阈值的部分并返回一个包含所有前景坐标的最小边界框作为最终确定的定位框Box。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人武汉大学;长江勘测规划设计研究有限责任公司,其通讯地址为:430072 湖北省武汉市武昌区八一路299号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。