北京理工大学鉴萍获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京理工大学申请的专利基于图像显著性与深度注意力网络的图像密集描述方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116403005B 。
龙图腾网通过国家知识产权局官网在2026-01-27发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310295779.3,技术领域涉及:G06V10/46;该发明授权基于图像显著性与深度注意力网络的图像密集描述方法是由鉴萍;温笑生设计研发完成,并于2023-03-24向国家知识产权局提交的专利申请。
本基于图像显著性与深度注意力网络的图像密集描述方法在说明书摘要公布了:本发明提出了一种基于图像显著性与深度注意力网络的图像密集描述方法,属于计算机视觉与自然语言处理的交叉技术应用领域。S1、基于图像显著性分析获得图像的关注区域及关注区域掩膜;S2、对图像进行编码,得到图像特征向量;S3、将图像特征向量和关注区域掩膜输入解码器,生成描述语句。模型在训练时采用传统密集描述所使用的矩形区域作为掩模,配合描述语料计算推理结果的交叉熵损失,使用梯度下降方法更新参数,找到最优模型,使其能够对特定区域进行理解和描述。
本发明授权基于图像显著性与深度注意力网络的图像密集描述方法在权利要求书中公布了:1.一种基于图像显著性与深度注意力网络的图像密集描述方法,其特征在于,包括以下步骤: S1、基于图像显著性分析获得图像的关注区域及关注区域掩膜; S2、对图像进行编码,得到图像特征向量; S3、将图像特征向量和关注区域掩膜输入解码器,生成描述语句; 所述步骤S1包括: S11、通过图像显著性分析获得图像的显著性强度图; S12、根据预设的不同阈值将显著性强度图进行二值化,以获得图像的关注区域; S13、为关注区域生成掩膜; S14、显著性强度从弱到强,对关注区域掩膜计算交并比,如果交并比大于一定交并比阈值则舍去显著性强度强的关注区域,否则将显著性强度强的关注区域及其掩模保存; 在步骤S3中,解码器预测当前词的概率分布,同时将Soft注意力和Hard注意力引入到解码器中,对解码器所能看到的图像区域进行限制,然后逐步产生描述词,具体包括: S31、为关注区域和非关注区域设置权重; S32、将LSTM上一时间步的隐变量H与图像特征向量经全连接层后拼接形成Soft注意力; S33、将S31设置权重的关注区域掩模作为全局注意力强度输入,与S32所述的Soft注意力以乘积的形式作为图像特征向量的关注权重,将加权后的图像特征向量AWE输入LSTM。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励