杭州电子科技大学马骏获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉杭州电子科技大学申请的专利一种基于深度图辅助的多视图语义识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119888738B 。
龙图腾网通过国家知识产权局官网在2025-09-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510077984.1,技术领域涉及:G06V20/70;该发明授权一种基于深度图辅助的多视图语义识别方法是由马骏;颜成钢;盛熙淳;孙垚棋;高宇涵设计研发完成,并于2025-01-17向国家知识产权局提交的专利申请。
本一种基于深度图辅助的多视图语义识别方法在说明书摘要公布了:本发明公开了一种基于深度图辅助的多视图语义识别方法。首先获取多视角深度图与主视图RGB图像;然后进行深度点云的生成与处理;分别进行单视图RGB图像的语义识别和深度融合语义识别;最后通过语义融合模块综合单视图语义网络SVSN和深度融合语义网络DFSN的输出结果,生成最终的语义识别结果。本发明利用深度点云捕获三维几何结构信息,同时通过RGB图像提取丰富的纹理和语义特征,并在语义融合阶段引入加权平均结合基于规则的动态调整策略,从而有效解决了传统方法在复杂场景下易受光照变化、遮挡和噪声干扰的问题。本发明不仅提高了语义识别的全面性和精确性,还增强了模型应对多模态数据不一致和输入异常情况的能力,具有广泛的应用前景。
本发明授权一种基于深度图辅助的多视图语义识别方法在权利要求书中公布了:1.一种基于深度图辅助的多视图语义识别方法,其特征在于,通过以下步骤实现: 步骤1、多视角深度图与主视图RGB图像的获取; 获取目标场景的多视角深度图和主视图的RGB图像;将获取的多视角深度图数据进行预处理,以确保深度图数据的质量;选择一个主视角的RGB图像即主视图作为单视图语义识别的输入图像,主视图应具有最佳的视野、最少的遮挡,并能覆盖场景中的主要目标物体; 步骤2、深度点云的生成与处理; 将多视角深度图转换为多视角的深度点云数据;每个深度图中的像素点根据其深度值被转换为三维坐标点,形成点云数据;对生成的多视角深度点云进行处理,包括点云对齐、降噪和稀疏化处理;将处理后的多视角深度点云数据作为深度融合语义网络DFSN的输入之一; 步骤3、单视图RGB图像的语义识别; 将主视角的RGB图像输入单视图语义网络SVSN;SVSN采用深度卷积神经网络架构,首先对RGB图像进行特征提取;然后SVSN通过多层次语义解码器对提取到的特征进行逐层解码,生成初步的语义标签图;将SVSN的输出语义标签图存储,作为最终融合结果的输入之一; 步骤4、深度融合语义识别; 将预处理后的多视角深度点云与主视角的RGB图像一起输入深度融合语义网络DFSN;DFSN首先分别对深度点云和RGB图像进行独立的特征提取;然后对提取的深度点云和RGB图像特征进行特征对齐,DFSN使用基于注意力机制的特征对齐算法,确保不同模态的特征能够在同一语义空间内进行对齐; 将对齐后的特征送入特征融合模块进行融合;该模块采用自适应特征融合策略,动态调整RGB图像特征和深度点云特征的权重,以充分发挥各自的优势;将特征融合模块输出的融合特征输入语义解码器生成融合后的语义标签图; 步骤5、语义识别结果的融合; 通过语义融合模块综合单视图语义网络SVSN和深度融合语义网络DFSN的输出结果;语义融合模块采用加权平均结合基于规则的融合策略,将两种网络的语义识别结果进行组合;具体融合策略为:正常情况下最终预测结果为两种网络的语义识别结果的加权平均结果;但在输入数据缺失,产生遮挡或光线反射的情况下,语义融合模块将根据不同情况对预测结果进行修正,从而提高最终识别的可靠性;生成最终的语义识别结果; 步骤6、输出与应用; 将最终生成的语义识别结果以图像或三维模型的形式输出,用于后续的分析、处理或决策;该结果能够用于自动驾驶系统中的实时环境感知、无人机导航系统中的障碍物检测或智能监控系统中的目标跟踪。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市钱塘区白杨街道2号大街1158号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。