南京邮电大学霍智勇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京邮电大学申请的专利一种基于CNN和Transformer特征融合的单目深度估计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118052859B 。
龙图腾网通过国家知识产权局官网在2025-09-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410067946.3,技术领域涉及:G06T7/55;该发明授权一种基于CNN和Transformer特征融合的单目深度估计方法是由霍智勇;王振东设计研发完成,并于2024-01-17向国家知识产权局提交的专利申请。
本一种基于CNN和Transformer特征融合的单目深度估计方法在说明书摘要公布了:本发明属于计算机视觉领域,公开了一种基于CNN和Transformer特征融合的单目深度估计方法,包括:首先,构建混合深度数据集并对其进行预处理,将预处理后的图片输入网络提取CNN特征图,其次,使用特征转换模块得到类图像特征图并调整类图像特征图的尺度,获得四个Transformer特征图,而后将两个特征图输入引导融合模块,获得四个层级的特征图并将其输入解码融合模块,获得解码后的输出特征图;最后将输出特征图输入深度输出模块生成深度图,将深度图标签和深度图进行损失值计算,得到训练好的模型。本发明的双分支结构产生了提升了深度图的全局准确性,细化了局部纹理和边缘的表现,提高了模型的泛化能力。
本发明授权一种基于CNN和Transformer特征融合的单目深度估计方法在权利要求书中公布了:1.一种基于CNN和Transformer特征融合的单目深度估计方法,其特征在于:所述单目深度估计方法具体包括如下步骤: 步骤1、构建用于训练的混合深度数据集,对混合深度数据集中的RGB图片及其对应的深度图标签进行归一化、数据增强的预处理操作; 步骤2、将步骤1预处理的RGB图片输入到网络中,所述网络包括编码部分和解码部分,所述编码部分包括Transformer分支、CNN分支和引导融合模块,所述解码部分包括解码融合模块和深度输出模块,所述Transformer分支处理RGB图片得到一维Transformer特征图; 步骤3、所述CNN分支处理步骤1预处理后的RGB图片并提取四个不同分辨率的CNN特征图; 步骤4、选取所述Transformer分支中的四层一维Transformer特征图,并使用所述特征转换模块将一维Transformer特征图转换为类图像特征图,并用转置卷积调整类图像特征图的尺度,最终获得与步骤3得到的CNN特征图相对应分辨率的四个Transformer特征图; 步骤5、步骤3得到的CNN特征图和步骤4得到的四个Transformer特征图输入所述引导融合模块,获得四个层级的特征图,其分辨率为输入RGB图片的,其中,将CNN特征图和四个Transformer特征图输入所述引导融合模块,获得四个层级的特征图,具体包括以下步骤: 步骤5.1、对于每个所述引导融合模块,处理相同尺度的Transformer特征图和CNN特征图,先将Transformer特征图和CNN特征图沿着通道维度拼接,然后通过3x3卷积,BN和RELU激活函数降低通道维度; 步骤5.2、使用shuffleattention机制增强特征表示,使Transformer特征图和CNN特征图充分融合; 步骤5.3、通过四个引导融合模块获得四个层级的特征图,其中每个层级的特征图兼具Transformer的全局信息处理优势和CNN的局部特征提取优势; 步骤6、将步骤5获得的四个层级的特征图输入所述解码融合模块,所述解码融合模块由残差卷积单元和上采样操作组成,通过跳跃连接自下而上的融合四个层级的特征图,逐步重建图像细节,获得解码后的输出特征图,分辨率为输入RGB图片的14; 步骤7、将步骤6得到的解码后的输出特征图输入所述深度输出模块,生成与输入图片RGB相同大小、细节丰富、准确性高的深度图; 步骤8、将输入RGB图像的深度图标签和所述步骤7预测的深度图进行损失值计算,进行网络超参数迭代优化,得到训练好的模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京邮电大学,其通讯地址为:210046 江苏省南京市栖霞区文苑路9号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。