Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京理工大学付莹获国家专利权

北京理工大学付莹获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京理工大学申请的专利一种基于频率感知特征融合的图像语义分割方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116704180B

龙图腾网通过国家知识产权局官网在2025-09-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310543791.1,技术领域涉及:G06V10/26;该发明授权一种基于频率感知特征融合的图像语义分割方法及系统是由付莹;陈林蔚;郑德智设计研发完成,并于2023-05-15向国家知识产权局提交的专利申请。

一种基于频率感知特征融合的图像语义分割方法及系统在说明书摘要公布了:本发明涉及一种基于频率感知特征融合的图像语义分割方法及系统,属于计算机视觉技术领域。本发明在语义分割神经网络模型的特征融合过程中,自适应地去除上采样高层特征中的有害高频,并增强低层特征中的有益高频,从而提高特征融合效果,减轻特征不对齐问题,得到细节丰富的融合特征。本发明方法可以拓展到语义分割模型的后上采样过程中,利用图像中的有益高频信息引导移除上采样后的不准确的高频成分以得到富有细节的高分辨率输出结果。本方法在引入极小的额外计算量和参数量下,大幅度提高语义分割模型在特征融合以及后上采样过程中保留重要区域细节信息的能力,实现了高精度低复杂度的语义分割。

本发明授权一种基于频率感知特征融合的图像语义分割方法及系统在权利要求书中公布了:1.一种基于频率感知特征融合的图像语义分割方法,其特征在于,包括以下步骤: 步骤1:构建基于频率感知特征融合的语义分割神经网络模型; 将普通语义分割深度神经网络中的特征融合和上采样,替换为频率感知特征融合以及频率感知上采样,由此构建频率感知特征融合的语义分割神经网络模型; 频率感知特征融合Yl描述如下: 其中,表示低通滤波,表示高通滤波;Xl和Yl+1分别是由骨干网络生成的第l层的特征和第l+1层的融合特征;表示上采样;表示经过投影函数映射为相同通道数后的第l层特征;表示经过上采样后的第l+1层的融合特征;表示一个投影函数,确保与具有相同的通道数; 生成空间自适应的低通高滤波,如下所示: 其中,表示第l层融合后的特征位于坐标i,j的特征向量;i,j表示输入特征的横纵坐标;和分别是空间变化的自适应低通和高通核,针对特征每个坐标i,j,都会自适应生成一个高通、低通核;p,q表示自适应核的核参数横纵坐标;表示针对特征坐标i,j处生成的自适应低通、高通核位于核参数坐标p,q的值;表示第l+1层融合后的特征位于坐标i+p,j+q的特征向量;表示第l层特征位于坐标i+p,j+q的特征向量;表示第l层特征位于坐标i,j的特征向量;Ω表示滤波器所依赖的邻域区域; 和通过下式获得: 其中,Zl为压缩的特征;对于自适应低通滤波,使用Softmax约束全正且和唯一;对于高通滤波核,首先使用Softmax约束得到低通滤波,然后反转得到高通滤波,具体使用恒等核E减去低通核;i、j为输入特征的横纵坐标,p、q为核参数的横纵坐标;表示表示第l+1层融合后的特征;表示经过投影函数映射后的第l层特征;表示初始低通核参数;表示初始高通核参数; 表示针对第l层特征坐标i,j处生成的初始自适应低通、高通核;表示第l层特征坐标i,j处生成的初始自适应低通、高通核位于核坐标p,q的参数;表示针对第l层特征坐标i,j处生成的自适应低通、高通核位于核参数坐标p,q的值;Ep,q表示恒等核位于核坐标p,q的参数; 对于将该方法拓展到语义分割模型的后上采样过程,用下式表示: 其中,表示第l层的图像细节;为拉普拉斯滤波,用于提取输入图像Il中的高频,此时输入图像已被缩放至特征图两倍大小;表示针对第l层图像的初始核参数;是使用两倍最近邻上采样的模型输出最后特征;表示针对第l层特征坐标i,j处生成的初始自适应核参数;表示针对第l层特征坐标i,j处生成的初始自适应核位于核参数坐标p,q的值;表示针对第l层特征坐标i,j处生成的自适应低通核位于核参数坐标p,q的值; 利用图像中的高频信息来生成自适应低通滤波用于移除模型输出的最后特征中的有害高频,从而得到准确的高分辨率输出: 其中,表示第l层融合后的特征位于坐标i,j的特征向量;表示上采样后第l+1层融合后的特征位于坐标i+p,j+q的特征向量; 步骤2:训练语义分割神经网络模型; 具体使用语义分割任务损失函数对语义分割深度卷积网络进行训练; 步骤3:用训练好的频率感知特征融合的语义分割神经网络模型对图像进行语义分割,得到分割结果。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。