安徽理工大学夏晨星获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉安徽理工大学申请的专利一种基于多级特征并行交互融合的单目深度预测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115578436B 。
龙图腾网通过国家知识产权局官网在2026-01-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211252277.4,技术领域涉及:G06T7/55;该发明授权一种基于多级特征并行交互融合的单目深度预测方法是由夏晨星;段秀真;梁兴柱;王列伟;孙延光;段松松设计研发完成,并于2022-10-13向国家知识产权局提交的专利申请。
本一种基于多级特征并行交互融合的单目深度预测方法在说明书摘要公布了:本发明提出一种基于多级特征并行交互融合的单目深度预测方法,尝试提出一种CNN与Transformer层级交互融合的方式,使用SwinTransformer和CNN不同分辨率特征图进行融合,以获得更好的编码器,获取更丰富的全局和局部特征信息,达到提取密集特征的效果。使用分层ResNet和SwinTransformer作为编码器,分别提取局部相邻信息特征与全局长范围上下文信息,通过层级ResNet网络与Transformer的融合,在编码器阶段获得丰富的局部与全局信息,避免因为重复的下采样而丢失过多的特征信息。此外,本发明构建了一个新的融合模块FFM,在层级特征提取阶段,更好的促进卷积神经网络输出与Transformer输出高效融合,进一步获得密集的深度信息,得到高质量的深度图,用于三维重建、自动驾驶、智能机器人等领域。
本发明授权一种基于多级特征并行交互融合的单目深度预测方法在权利要求书中公布了:1.一种基于多级特征并行交互融合的单目深度预测方法,其特征在于,该方法包括以下步骤: 1收集公共RGB数据集,并对数据进行增强,使用网络的预训练权值,并初始化编码器; 2采用ResNet获取多级局部特征,使用SwinTransformer获取全局上下文特征; 3构建并行多级交互融合模块FFM,将局部与全局信息充分融合,生成高质量密集深度信息; 3.1构建并行多级交互融合模块FFM,将局部与全局信息充分融合,生成高质量密集深度信息; 3.2具体来说,获得Transformer中向量间的位置关系得到特征xt,Transformer模型计算了空间中所有块间的相关性,ResNet建立了局部空间中的信息连接,Transformer建立了更好的上下文语义信息,ResNet则有更强的局部信息,为了更好的集成二者的优势,所述方法设计了FFM模块来增强彼此特征的表达,具体过程表示如下: Ft=multixt,ConvupSigmoidxt1 其中xt表示Transformer分支特征信息,up表示上采样操作,Sigmoid表示激活函数,Conv表示3×3大小的卷积操作,multi表示像素级乘法,通过进一步对Transformer分支特征进行处理,得到Ft; 3.3用类似的方处理ResNet分支特征信息,其中Softmax表示激活函数,GAP表示全局平均池化,进一步对空间特征进行压缩,将全局空间信息压缩到通道描述符的同时,也降低了网络参数,可以达到防止过拟合的作用,此时得到ResNet进一步处理的特征Fr; Fr=multixres,GAPConvSoftmaxxres2 Fmid=BRCConcatFt,upFr3 BRC表示预激活模块,所述方法引入预激活卷积块缓解现有卷积块由于在最后一步丢弃了整流线性单元激活的非线性性质的大部分负值而造成的影响,得到中间融合特征Fmid; Fi=BRCConcatupConvFt,Fmid,upConvFr4 最终通过像素级相加操作,结合Ft、Fr与Fmid,再次通过预激活模块优化特征,得到输出Fi,其中i取值为阿拉伯数字1至4,表示每一个阶段的融合的特征; 4为了计算预测输出深度与地面真实深度图之间的距离,使用尺度不变损失Scale-InvariantlossSI来训练模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人安徽理工大学,其通讯地址为:232000 安徽省淮南市山南新区泰丰大街168号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励