西安电子科技大学王乐为获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉西安电子科技大学申请的专利基于置信度掩码的无监督车载单目深度估计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119850697B 。
龙图腾网通过国家知识产权局官网在2025-09-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411869792.6,技术领域涉及:G06T7/50;该发明授权基于置信度掩码的无监督车载单目深度估计方法是由王乐为设计研发完成,并于2024-12-18向国家知识产权局提交的专利申请。
本基于置信度掩码的无监督车载单目深度估计方法在说明书摘要公布了:本发明公开了一种基于置信度掩码的无监督车载单目深度估计方法,其实现步骤为:构建无监督车载单目深度估计网络;特征提取子网络输出源帧与目标帧的特征图;姿态估计子网络输出从源帧到目标帧的投影矩阵;动态目标感知子网络输出置信度掩码;深度解码子网络恢复目标帧的深度图。本发明通过动态目标感知子网络输出的置信度掩码建模,能够有效减少因数据缺失或噪声引入的误差,尤其在低质量输入下,提升了动态场景中运动目标的深度重建的鲁棒性,使得本发明可以获得动态区域中更精细的深度信息和更好的视觉效果,可高效地应用在自动驾驶的无监督车载深度感知场景。
本发明授权基于置信度掩码的无监督车载单目深度估计方法在权利要求书中公布了:1.一种基于置信度掩码的无监督车载单目深度估计方法,其特征在于,构建动态目标感知子网络,用于生成动态目标的置信度掩码;利用置信度掩码在前向推理过程中恢复动态场景的深度图,利用深度图在反向传播过程中计算图像重建损失;该估计方法的步骤包括如下: 步骤1,构建动态目标感知子网络,第一层的三维卷积的卷积核大小为3×3×3,步长为1,填充为1;第二层三维卷积的卷积核大小为5×5×5,步长为2,填充为2,第三层为批归一化层,第四层为sigmoid激活层; 步骤2,构建由特征提取子网络、姿态估计子网络、动态目标感知子网络、深度解码子网络组成的无监督车载单目深度估计网络; 步骤3,从无监督车载单目深度估计数据集中,逐次读取视频序列的相邻两帧图像作为源帧与目标帧;将所有源帧与目标帧组成训练集; 步骤4,将训练集输入无监督车载单目深度估计网络中,利用小批量梯度下降法,迭代更新无监督车载单目深度估计网络的参数,直到图像重建损失函数收敛为止,得到训练好的无监督车载单目深度估计网络;其训练过程如下: 步骤4.1,特征提取子网络输出源帧与目标帧对应的特征图; 步骤4.2,姿态估计子网络输出从源帧到目标帧的正向投影矩阵,以及从目标帧到源帧的逆向投影矩阵; 步骤4.3,利用正向投影矩阵,将源帧的特征图投影到目标帧进行特征对齐; 步骤4.4,经动态目标感知子网络输出动态目标的置信度掩码,其步骤如下: 第一步,求解对齐后的特征的L1范数,得到残差特征图; 第二步,通过动态目标感知子网络的两个三维卷积层和一个批归一化层,来聚合残差特征图中不同深度层的特征图,得到聚合特征; 第三步,通过动态目标感知子网络的sigmoid激活函数,激活聚合特征的不同通道累加的特征,得到动态目标的置信度掩码; 步骤4.5,利用置信度掩码与目标帧对应的特征图,由深度解码子网络恢复目标帧的深度图; 步骤4.6,利用逆向投影矩阵,将目标帧的深度图投影到源帧,计算源帧与重建源帧之间的图像重建损失; 步骤5,将无监督驾驶过程中产生的时间相邻的两帧图像数据,输入到训练好的无监督车载单目深度估计网络,输出场景的深度估计结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安电子科技大学,其通讯地址为:710071 陕西省西安市雁塔区太白南路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励