Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 同济大学范睿获国家专利权

同济大学范睿获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉同济大学申请的专利基于空间信息聚合的深度位姿联合估计方法和介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118710719B

龙图腾网通过国家知识产权局官网在2025-09-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410842366.7,技术领域涉及:G06T7/73;该发明授权基于空间信息聚合的深度位姿联合估计方法和介质是由范睿;冯翊设计研发完成,并于2024-06-27向国家知识产权局提交的专利申请。

基于空间信息聚合的深度位姿联合估计方法和介质在说明书摘要公布了:本发明涉及一种基于空间信息聚合的深度位姿联合估计方法和介质,包括以下步骤:获取单目图像序列,输入深度位姿联合估计模型,输出深度预测图和相机位姿预测结果,模型处理输入的过程如下:获得深度空间先验和语义特征集合;将相邻帧RGB信息按批次拼接后,获得目标帧特征和参考帧特征;计算目标帧特征关于参考帧特征的滑动窗口的亲和度,并计算特征流和置信度;计算绝对特征位置坐标,聚合特征流、绝对特征位置坐标以及深度空间先验进行深度特征获得位置特征集合;将位置特征集合分层注入语义特征集合中,获得深度融合的特征表达,获得深度预测图和相机位姿预测结果。与现有技术相比,本发明可以进一步提高深度位姿联合估计的精度和鲁棒性。

本发明授权基于空间信息聚合的深度位姿联合估计方法和介质在权利要求书中公布了:1.一种基于空间信息聚合的深度位姿联合估计方法,其特征在于,包括以下步骤: 获取道路场景的单目图像序列,提取相邻帧的RGB信息并输入训练好的深度位姿联合估计模型,输出深度预测图和相机位姿预测结果,所述深度位姿联合估计模型包括并列的深度估计网络、相机位姿估计网络和特征流提取主干网络,所述特征流提取主干网络的输出端之后依次设有置信度自感知特征流估计器、空间信息聚合器和分层位置编码注入器,所述深度位姿联合估计模型处理输入信息获得输出的具体过程如下: S1、将相邻帧的RGB信息输入所述深度估计网络,获得深度空间先验; S2、将相邻帧的RGB信息按通道进行拼接后,输入所述相机位姿估计网络,获得语义特征集合; S3、将相邻帧的RGB信息按批次进行拼接后,输入所述特征流提取主干网络,并按批次进行特征分离,获得目标帧特征和参考帧特征; S4、将所述目标帧特征和所述参考帧特征输入置信度自感知特征流估计器,计算所述目标帧特征关于所述参考帧特征的滑动窗口的亲和度,基于亲和度计算特征流和逐像素的置信度; S5、计算逐像素的绝对特征位置坐标,基于所述置信度,利用所述空间信息聚合器对所述特征流、所述绝对特征位置坐标以及步骤S1获得的深度空间先验进行深度特征聚合,获得位置特征集合; S6、通过所述分层位置编码注入器将所述位置特征集合分层注入步骤S2获得的语义特征集合中,获得深度融合的特征表达,将所述深度融合的特征表达进行平均池化后输入多层感知机,获得深度预测图和相机位姿预测结果; 步骤S5中,所述绝对特征位置坐标的计算方式如下: 其中,为特征图高度,为特征图宽度,为网格函数,为拼接函数; 步骤S5中,获得所述位置特征集合的过程如下: 其中,为具有可学习参数的两个连续的卷积层,为逐像素的置信度。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人同济大学,其通讯地址为:200092 上海市杨浦区四平路1239号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。